manifeste pour une utilisation responsable de l'IA
L’intelligence artificielle (IA) s’implante graduellement dans toutes les sphères de la société. Elle est en train de transformer le monde du travail en profondeur, tous secteurs confondus. Les bénéfices sont nombreux : automatisation de certaines tâches répétitives, recherche documentaire rapide, aide à la prise de décision, production de différentes formes de contenus : texte, images, code de programmation, vidéos, présentations, graphiques… La liste est quasiment infinie.
Ces outils constituent ainsi un atout certain en termes de gain de temps, permettant aux équipes de se consacrer à des tâches ayant une plus grande valeur ajoutée et de décupler leur créativité. Toutefois, l’utilisation de ces outils présente aussi des enjeux de droits d’auteur, de sécurité de l’information, de confidentialité, de protection des données, de consentement des personnes concernées, etc.
Voilà pourquoi la Fondation J. Armand Bombardier s’est penchée sur une politique d’utilisation responsable des outils d’intelligence artificielle, qui donne les grandes lignes à respecter et quelques exemples de bonnes pratiques. Cette politique s’accompagne d’une formation aux membres du personnel bâtie par une équipe interne de la Fondation.
Nous nous sommes largement inspirées du manifeste publié par Furniture Bank. Comme eux, nous croyons en l’utilisation de l’intelligence artificielle pour le bien commun.
L’objectif de cette politique est de s’assurer que tous les membres du personnel utilisent les outils d’IA de manière sûre, responsable et en conformité avec la règlementation en matière de protection de la vie privée, notamment la Loi 25, ainsi que les politiques internes sur la gestion de données. Elle décrit les recommandations que les employé.es doivent respecter lors de l’utilisation de tels outils, incluant le respect des droits d’auteur, l’évaluation des risques de sécurité, la protection des données confidentielles et le consentement des personnes concernées.
Confidentialité des données : ne jamais partager ni télécharger dans le générateur (ChatGPT, Gemini, etc.) un élément qui permettrait d’identifier la Fondation, que ce soit du texte, des photographies, des logos, etc. Comme pour les publications dans les réseaux sociaux, toujours se poser la question : « Serais-je à l’aise de partager ces informations publiquement? » En effet, toutes les données partagées sur les outils d’IA sont potentiellement réutilisables par la plateforme et par ses utilisateurs.trices.
Protection des données confidentielles : ne jamais télécharger ni partager des données confidentielles, exclusives ou protégées, notamment par la Loi 25. Cela inclut des données relatives à la clientèle, aux organisations partenaires, aux fournisseurs et aux membres du personnel.
Évaluation des outils : Avant d’utiliser un outil, il est important d’évaluer la sécurité de l’outil. Par exemple, lire les conditions d’utilisation et la politique en matière de protection des renseignements personnels. De plus, les employé.es doivent consulter le service TI (technologies de l’information) de la Fondation avant l’utilisation et l’installation.
Respect de la sécurité : Les employé.es doivent appliquer les mêmes meilleures pratiques de sécurité utilisées au sein de la Fondation. Cela inclut l’utilisation de mots de passe forts et faire usage de prudence devant des fournisseurs dont la réputation n’est pas suffisamment établie.
Utilisation responsable des outils :
- Utiliser l’IA comme un assistant à la création, uniquement à des fins d’inspiration pour créer votre propre contenu original;
- Ne jamais diffuser le contenu généré par l’IA tel quel à l’externe;
- Toujours valider le contenu qui, encore très souvent, comporte des erreurs. Au besoin consulter des collègues pour s’assurer de l’exactitude de l’information;
- En cas de doute, utiliser un outil de détection de contenu dupliqué pour vous assurer que le contenu que vous publiez n’enfreint pas les droits d’auteur;
- S’assurer de toujours obtenir le consentement des personnes qui pourraient être touchées par l’activité, artistes, auteurs et autrices, participant.es aux réunions si celles-ci sont enregistrées à des fins de prise de notes, employé.es, etc.
La présente politique sera révisée annuellement par le comité de direction afin de garantir sa pertinence. Pour ce faire, une veille continue des pratiques en lien avec l’IA sera effectuée. Toute révision de la politique sera communiquée à l’ensemble de l’équipe.
La Fondation s’engage à veiller à ce que l’utilisation des outils d’IA soit sûre et sécurisée pour les membres de son équipe, ses clients, ses partenaires et ses fournisseurs. En suivant les recommandations décrites dans cette politique, nous pensons qu’il est ainsi possible de maximiser les avantages des outils d’IA tout en minimisant les risques potentiels associés à leur utilisation.
L’équipe de la Fondation utilise des outils de l’IA pour l’aider à réaliser différentes tâches comme :
- Traduire de textes simples et courts
- Générer des brouillons de textes divers
- Générer des brouillons de publications pour nos réseaux sociaux
- Générer des premières versions d’images (n’incluant pas de personnes)
- Générer des premières versions de code
- Trouver des recommandations ou étapes à suivre pour mettre en place un nouveau projet, créer une politique, etc.
- Analyser et coder des factures
La Fondation s’engage à ne jamais utiliser d’outil d’IA pour :
- Prendre des décisions stratégiques
- Analyser les dossiers de demande de dons et de bourses
- Prendre des décisions en lien avec l’octroi de dons
- Reproduire ou utiliser du matériel artistique des artistes qui exposent au Centre d’exposition Yvonne L. Bombardier
- Modifier ou remplacer des images authentiques prises au cours de nos activités philanthropiques, au Musée de l’ingéniosité J. Armand Bombardier ou au Centre d’exposition Yvonne L. Bombardier
- Supprimer des postes