Gouvernance et droits de la personne
Mécanismes de transparence pour les algorithmes de recommandation des médias sociaux
Objectifs
À l’origine, cette préoccupation est d’ordre technique et concerne les méthodes d’IA par lesquelles les systèmes de recommandation apprennent, mais elle est également d’ordre social et politique en raison des effets que ces systèmes ont sur les utilisateurs de plateformes et de leur potentiel à influencer considérablement les courants d’opinion politique.
Le projet propose un exercice d’enquête au cours duquel des chercheurs externes vérifieraient des affirmations préoccupantes au sein d’entreprises de médias sociaux et qui servirait de mécanisme pratique pour accroître la transparence des plateformes.
Dans la première phase du projet, nous avons examiné les méthodes possibles pour étudier les effets des systèmes de recommandation sur le comportement des plateformes pour utilisateurs et nous avons conclu que les meilleures méthodes sont celles que les entreprises utilisent elles-mêmes et qui ne sont disponibles qu’en interne. Nous avons proposé un mécanisme de transparence dans lequel des chercheurs externes sont affectés à une entreprise de médias sociaux et utilisent des méthodes internes pour répondre à des questions d’intérêt public sur les effets nocifs possibles des systèmes de recommandation. Nous nous sommes concentrés sur les contenus à caractère terroriste et lié à l’extrémisme violent. Dans la dernière année, notre projet a cherché à tester notre proposition d’enquête dans une ou plusieurs entreprises de médias sociaux, ce qui a posé quelques problèmes. Cette année, nous travaillerons avec les organes de l’Union européenne pour déterminer comment soutenir l’opérationnalisation de la législation sur les services numériques, avec une attention particulière accordée aux exigences en matière d’audit et de transparence.
Cet exercice d’enquête pourrait permettre de faire émerger des informations pertinentes sur les méfaits des systèmes de recommandation, sans compromettre les droits des utilisateurs des plateformes ou la propriété intellectuelle des entreprises.
Ressources
-
Social Media Governance Project - Summary of Work in 2023PMIA; 2023; Rapport
En anglais seulement -
Crowdsourcing the curation of the training set for harmful content classifiers used in social mediaPMIA; 2023; Rapport
En anglais seulement -
Transparency Mechanisms for Social Media Recommender Algorithms: From Proposals to ActionPMIA; 2022: Rapport
En anglais seulement
Équipe
Lama Saouma
Responsable des initiatives IA
Ali Knott
Expert PMIA et co-responsable du projet
Dino Pedreschi
Expert PMIA et co-responsable du projet
Comité de travail
Raja Chatila
Tapabrata Chakraborti
David Eyers
Andrew Trotman
Ricardo Baeza-Yates
Le projet a donné lieu à des discussions avec plusieurs entreprises (p. ex. Twitter, YouTube, Facebook) et organismes gouvernementaux (p. ex. Nouvelle-Zélande, Royaume-Uni, Canada, France), ainsi qu’à une participation à plusieurs initiatives internationales relatives aux contenus à caractère terroriste et lié à l’extrémisme violent, notamment l’Appel à l’action de Christchurch et le Global Internet Forum to Counter Terrorism.