Rechercher

Accueil Actualités Sommet PMIA 2023 : rétrospective des projets sur l’IA responsable et sur la gouvernance des données
1 Fév 2024 Article de blogue

Gwenaëlle Le Peuch

Coordonnatrice des évènements et des communications

Sommet PMIA 2023 : rétrospective des projets sur l’IA responsable et sur la gouvernance des données

Crédit photo : Janick Houde

Technologies d’amélioration de la confidentialité

Le Groupe de travail sur la Gouvernance des données travaille conjointement avec l’Infocomm Media Development Authority (IMDA) de Singapour et l’université singapourienne Nanyang Technological University (NTU) pour mettre en pratique un cas d’usage axé sur le partage des données dans le but de renforcer la résilience des sociétés face aux pandémies. Les partenaires du projet ont testé les données protégées par la technologie d’amélioration de la confidentialité afin de savoir si elles reproduisent les résultats du modèle original de prédiction des contaminations. Ils en ont conclu que de manière générale, les solutions activées par cette technologie étaient presque identiques à celles créées à partir des données originales non protégées (données sensibles). Pour lire les principales conclusions du projet, c’est ici

Si vous avez identifié d’autres cas d’utilisation pilotes pour les Technologies d’amélioration de la confidentialité s’appliquant à l’IA pour le bien commun, l’IMDA, le CEIMIA et NTU sont prêts à vous aider. Contactez-nous !

 

 

Stratégie d'IA responsable pour l'environnement (RAISE)

Mené par le Groupe de travail sur l’IA responsable, le projet RAISE vise à soutenir nos sociétés dans leur transition vers l’IA responsable (lutter contre les changements climatiques sans sacrifier la transition écologique). Le projet RAISE ambitionne l’élaboration d’une feuille de route actionnable pour une utilisation responsable de l’IA au service de l’action climatique et de la préservation de la biodiversité. En 2023, un premier atelier public avait été organisé dans l’objectif de définir les prochaines étapes prioritaires et d’ouvrir la voie vers davantage de collaborations entre organisations, et à des projets pratiques dans un avenir proche. Parmi les recommandations émises à l’attention des gouvernements figurent la priorisation de la préservation du climat et de la biodiversité dans leurs politiques et l’union des forces avec d’autres parties prenantes au sein du PMIA pour faire face à cette crise commune.

Lire les recommandations.

Prochaine étape du projet :

Pour cette année, le Groupe de travail s’appuie sur la dynamique créée en 2023 avec l’intention en premier lieu d’organiser un deuxième atelier public qui se concentrera sur l’élaboration et la mise en œuvre d’une feuille de route commune pour la R&D en matière d’IA responsable, puis sur la réalisation de projets de mise en œuvre ambitieux qui tirent parti des recommandations des rapports précédemment publiés sur le climat et la biodiversité. Il accélérera également le rythme de développement des outils d’accès aux données sur le climat et sur l’énergie dans le cadre du projet Net Zero Data Space dans l’objectif d’aider les chercheurs à identifier les voies vers le Net Zero.

 

 

Gouvernance des médias sociaux

Les plateformes de médias sociaux comptent parmi les principaux canaux par lesquels les systèmes d’IA influencent la vie des personnes. Il n’est pas peu dire qu’ils détiennent ainsi le potentiel d’influencer la population d’un pays entier. Cela soulève des questions, en particulier à l’ère de l’IA générative. Le projet d’IA responsable pour la gouvernance des médias sociaux répond aux préoccupations croissantes concernant l’utilisation abusive de ces plateformes ,qui peuvent être nuisibles et être vectrices de désinformation, d’extrémisme, de violence, de harcèlement et autres abus. En 2023, le groupe de travail sur l’IA responsable s’est concentré sur trois principaux axes de recherche :

  1. Recommandations des algorithmes ;
  2. processus de modération des contenus ;
  3. rôle de ces plateformes en tant que diffuseurs de contenus générés par l’IA.

Consultez l’analyse et les recommandations du Groupe de travail.

Prochaine étape :

Développer et déployer des mécanismes, tels que le filigrane ou d’autres techniques permettant aux utilisateurs d’identifier les contenus générés par l’IA.

Pour 2024, le projet se concentrera sur trois technologies clés : les systèmes de recommandation, les classificateurs de contenus nuisibles et les modèles fondamentaux. Les Experts se pencheront sur la nécessité de trouver des solutions pratiques et concrètes à la gouvernance des médias sociaux, dans le but d’approfondir la recherche avec un exercice pratique de classificateurs de contenu.

 

 

Institutions de données dignes de confiance

Les recherches menées par les instituts Open Data et Aapti en 2020, suivies du projet «Faire progresser la justice des données», ont mis en évidence la nécessité pour les organisations et les communautés locales de jouer un rôle actif dans la chaîne de valeur des données. S’appuyant sur ces travaux, le projet «Permettre le partage des données pour un bénéfice social grâce à la confiance dans les données» explore l’idée d’institutions de données ascendantes et les pratiques dignes de confiance où les communautés sont responsabilisées. Les chercheurs du CEIMIA l’ont mené en deux temps, avec l’Experte du PMIA Teki Akuetteh :

  • Premièrement, avec une étude pilote centrée sur les migrations induites par le climat dans le bassin du lac Tchad pour cartographier l’écosystème local de données et explorer comment les institutions de données et l’IA pourraient faire la différence pour les communautés impactées, avec l’objectif final de mieux intégrer les perspectives des pays à moyen et faibles revenus.
  • Ensuite, sur la base de ces enseignements, nous avons conçu le Trustworthy Data Institutional Framework (TDIF), un outil destiné à aider les organisations à évaluer leur maturité en matière de gouvernance des données et à leur fournir des pistes pour améliorer la fiabilité de leurs données.

Lire le rapport et tester l’outil.

 

 

Mise à l’échelle de solutions d'IA responsables: édition 2023

Pour avoir un impact positif, les solutions d’IA pour bien commun doivent être mises à l’échelle. Cependant, il n’est pas toujours facile de le faire dans le respect de la société, de l’environnement et des droits de la personne. Partant de ce constat, le groupe de travail sur l’IA responsable a initié l’année dernière une première édition du programme «Scaling Responsible AI Solutions» (SRAIS). Dirigé à l’époque par les futurs coprésidents Francesca Rossi et Amir Banifatemi, le Groupe de travail avait publié un appel à participation pour les jeunes pousses en IA responsable confrontées à des obstacles entravant à la fois l’évolutivité et la responsabilité de leur solution. Finalement, ce sont 5 équipes issues de différents contextes et continents, travaillant sur des sujets variés, qui ont suivi le programme de mentorat. Elles ont tout d’abord identifié leur plus important obstacle à leur mise à l’échelle  de manière responsable, puis ont exploré comment intégrer les principes d’IA responsable à leur solution à une plus grande échelle, et ont produit un plan de mise en œuvre. Félicitations à l’équipe ergoCub, qui s’est vue attribuer un prix lors de la cérémonie des AI Game Changers au sommet du PMIA à New Delhi !

Tirant parti de ces leçons, processus et résultats, le Groupe de travail a publié une série de recommandations à l’attention des gouvernements et des initiatives en matière d’IA afin de favoriser le développement de pratiques d’IA dans les différents Etats membres et d’inciter les entreprises à s’assurer que leurs solutions sont ancrées dans des principes responsables.

Lire le rapport complet. 

Prochaine étape du projet :

Cette année, les Experts se concentreront sur l’élargissement de la couverture géographique des activités et sur le soutien d’un plus grand nombre d’équipes participantes sur une plus longue durée. Cette édition 2024 sera marquée par l’introduction d’un parcours dédiée à l’Afrique, avec des partenaires locaux. Ce parcours se déroulera en parallèle et sera coordonné avec la le parcours traditionnel SRAIS, et se concentrera sur la mobilisation de mentors et des équipes d’IA africaines.

Vous souhaitez développer votre solution d’IA de manière responsable ? Exprimez votre intérêt ici pour recevoir toutes les informations relatives à l’appel à participation et à  cette édition 2024.

 

 

Diversité et égalité des sexes

L’IA offre un large éventail de possibilités pour améliorer le bien-être de différents groupes et contribuer aux objectifs de développement durable (ODD) des Nations unies. Cependant, elle peut creuser des fossés économiques, culturels, de connaissance et de genre. En effet, l’IA est encore généralement conçue, développée, contrôlée et évaluée sans approche systématique de la diversité et de l’égalité des genres (DEG). Cela l’empêche de réaliser son potentiel d’utilité sociale et aggrave les préjudices subis par les groupes déjà marginalisés. L’année dernière, en collaboration avec la MILA, le projet «Vers une réelle diversité et une égalité des sexes dans l’intelligence artificielle» a été mis en place pour fournir aux écosystèmes des outils, des cadres et des ressources permettant d’intégrer des stratégies efficaces en matière d’égalité des genres et de diversité tout au long du cycle de vie de l’IA.

En savoir plus sur l’avancement du projet. 

Prochaine étape :

Cette année, le Groupe de travail en IA responsable vise la publication d’un rapport final comprenant un ensemble de recommandations pour promouvoir une adoption de la technologie selon les principes de respect de la diversité et de l’égalité des sexes. En outre, il développera une boîte à outils comprenant un référentiel pratique des outils les plus efficaces identifiés au cours de la phase 1 du projet pour favoriser l’inclusion systémique des genres dans les écosystèmes de l’IA. 

Si vous souhaitez rejoindre le groupe consultatif de notre projet, contactez-nous !

 

 

Des données co-générées à l'IA générative

Face aux technologies de l’IA qui progressent rapidement, les lois traditionnelles deviennent obsolètes. Il est urgent de repenser les modèles de gouvernance, les droits sur les données collectives et la propriété dans les écosystèmes numériques, en mettant l’accent sur un déploiement éthique pour le bien public. Le projet «De la co-génération de données à l’intelligence artificielle générative» est le dernier en date parmi les efforts du PMIA pour combler le fossé entre la théorie et la pratique. En s’appuyant sur les travaux antérieurs des groupes de travail sur l’IA responsable, la gouvernance des données et l’innovation et la commercialisation, il vise à étudier la variété des droits et des protections juridiques disponibles pour les co-générateurs, et comment l’IA générative peut compliquer ces situations. Il vise également à aider nos pays à s’adapter à cette nouvelle réalité de cogénération dans les sociétés alimentées par l’IA. 

Prochaine étape :

Cette année, les Experts approfondiront la recherche au cours de la deuxième phase du projet. Restez à l’écoute pour la publication du document d’orientation et des principes directeurs pour les données co-générées au printemps !

Si vous souhaitez rejoindre le groupe consultatif de notre projet, n’hésitez pas à nous contacter !

 

 

L’IA pour la résilience aux pandémies

L’IA peut être utilisée pour apporter des réponses efficaces et opportunes aux menaces mondiales en temps de crise. C’est précisément cela que le projet «Résilience aux pandémies» a exploré : la capacité de l’IA à orienter l’élaboration de politiques dans des contextes d’incertitude. Dans le contexte d’une pandémie mondiale, le groupe de travail du PMIA sur l’IA responsable s’est concentré sur la prévision de la propagation et de l’impact du COVID-19 dans une série de lieux grâce à la modélisation d’ensemble. Les experts ont constaté que ce type de modélisation produit des erreurs nettement moins importantes que les modèles individuels, qu’il permet de réduire les biais et de partager les connaissances entre les modèles.

Sur la base de ces résultats, voici ce qu’ils recommandent :

  • renforcer les liens entre les modélisateurs et les décideurs ;
  • mettre en place un mécanisme de retour d’information pour faciliter l’ajustement des politiques en fonction des résultats des modèles ;
  • développer un accès aux données publiques

En savoir plus sur ce projet et sur comment l’IA peut nous aider à affronter de futures pandémies.

Un nouveau projet connexe pour 2024

En 2024, le Groupe de travail continuera d’explorer la modélisation d’ensemble avec le projet  «Digital Ecosystems that Empower Communities». En s’appuyant sur les processus, les outils et les enseignements développés dans le cadre du projet ci-dessus et sur les principes du projet «Faire progresser la justice des données», ce nouveau projet utilisera le même type de modélisation pour parvenir à une meilleure justice en matière de données pour les communautés marginalisées qui, la plupart du temps, dans les contextes de collecte de données à grande échelle, mettent leurs données à disposition mais ne reçoivent généralement que très peu en retour.

 

 

Le rôle des gouvernements en tant que fournisseurs de données pour l’IA

En tant qu’acteurs clés dans le paysage de l’IA, les gouvernements joueront un rôle croissant en fournissant aux développeurs d’IA un accès aux données publiques. En effet, ils sont particulièrement bien placés pour fournir des données en raison de leur portée, de leur pouvoir et de leur échelle : leurs ensembles de données peuvent être complets (ou presque), précis, opportuns et durables, en raison de leur financement public. Cela sera essentiel pour garantir la transparence, la responsabilité et l’accès équitable à l’information. Cependant, cela entre également en conflit avec les cadres juridiques et les principes de traitement des données existants. Initiée en 2023, la première phase du projet évalue les objectifs et les mécanismes de partage des informations publiques avec le secteur privé à travers quatre études de cas. 

En savoir plus sur la première phase du projet.

Prochaine étape du projet

Cette année, les Experts du PMIA mèneront la deuxième phase de ce travail, qui visera à examiner comment les gouvernements peuvent mettent ces données à la disposition des développeurs de manière bien gouvernée, en tenant compte des questions relatives à la technologie, à la culture, aux attitudes du public et aux modèles financiers équitables, et à fournir des recommandations exploitables ainsi qu’un aperçu des ressources nécessaires pour gouverner avec succès l’hébergement des ressources de données publiques.

 

 

Recueil d'algorithmes publics

Petit dernier du PMIA, ce nouveau projet s’accompagne d’une nouvelle méthodologie de travail : il vise à établir une collaboration entre les groupes de travail. Pour ce projet, les Experts des Groupes de travail sur l’IA responsable et la Gouvernance des données coopéreront pour créer de nouveaux référentiels nationaux et infranationaux d’algorithmes publics afin d’accroître la disponibilité des données publiques sur les systèmes de prise de décision automatisée dans le secteur public.

 

 

En ce qui concerne notre portefeuille CEIMIA, trois projets majeurs sont sous les projecteurs cette année :

Cadre comparatif pour la politique de réglementation en matière d’intelligence artificielle

Nous sommes actuellement en train de poursuivre notre travail sur le cadre comparatif avec un deuxième volet du projet où nous nous penchons sur une autre série d’approches réglementaires en matière d’IA dans cinq autres régions. Le rapport de ce deuxième volet devrait être publié au printemps cette année.

Découvrabilité 

Mandaté par le Ministère de la Culture et des Communications du Québec, ce projet ambitieux tire profit des plus récents développements en IA afin de dissoudre les barrières qui nuisent à la découvrabilité des contenus culturels francophones dans les environnements numériques.

L’IA pour l’Afrique – un groupe de réflexion de CEIMIA

Comme mentionné dans l’éditorial de notre dernière infolettre, il est de notre devoir de tirer parti de l’IA pour trouver des solutions aux problèmes actuels tels que le changement climatique, l’éducation, la santé mondiale entre autres, et de plaider pour une adoption de l’IA plus juste qui comble le fossé social. C’est dans cette perspective que le CEIMIA développe son propre groupe de réflexion pour aider l’Afrique à s’approprier cette technologie. Au cours des six prochains mois, le CEIMIA affinera sa stratégie avec le Cameroun et le Sénégal comme pays pionniers.

 

Restez attentifs, d’autres nouveautés seront dévoilées dans les prochains mois !

BG

Découvrir l'équipe du CEIMIA

Grâce à une structure de collaboration unique, le CEIMIA est un acteur clé du développement, du financement et de la mise en œuvre de projets d’IA appliquée au bénéfice de l’ensemble de l’humanité.

Équipe