Rechercher

Accueil Gouvernance et droits de la personne Mécanismes de transparence pour les algorithmes de recommandation des médias sociaux

Gouvernance et droits de la personne

Mécanismes de transparence pour les algorithmes de recommandation des médias sociaux

Ce projet vous intéresse? Impliquez-vous dès aujourd’hui.

Collaborer

Objectifs

Le projet vise à faire l’essai d’un mécanisme de transparence des médias sociaux afin de vérifier si les systèmes de recommandation peuvent diriger les utilisateurs vers divers types de contenus préjudiciables, et de transmettre cette information au public.

À l’origine, cette préoccupation est d’ordre technique et concerne les méthodes d’IA par lesquelles les systèmes de recommandation apprennent, mais elle est également d’ordre social et politique en raison des effets que ces systèmes ont sur les utilisateurs de plateformes et de leur potentiel à influencer considérablement les courants d’opinion politique.

Il est essentiel que les gouvernements et le public disposent d’un moyen d’accéder à plus d’informations sur l’impact des systèmes de recommandation sur les utilisateurs de plateformes.

Le projet propose un exercice d’enquête au cours duquel des chercheurs externes vérifieraient des affirmations préoccupantes au sein d’entreprises de médias sociaux et qui servirait de mécanisme pratique pour accroître la transparence des plateformes.

Dans la première phase du projet, nous avons examiné les méthodes possibles pour étudier les effets des systèmes de recommandation sur le comportement des plateformes pour utilisateurs et nous avons conclu que les meilleures méthodes sont celles que les entreprises utilisent elles-mêmes et qui ne sont disponibles qu’en interne. Nous avons proposé un mécanisme de transparence dans lequel des chercheurs externes sont affectés à une entreprise de médias sociaux et utilisent des méthodes internes pour répondre à des questions d’intérêt public sur les effets nocifs possibles des systèmes de recommandation. Nous nous sommes concentrés sur les contenus à caractère terroriste et lié à l’extrémisme violent. Dans la dernière année, notre projet a cherché à tester notre proposition d’enquête dans une ou plusieurs entreprises de médias sociaux, ce qui a posé quelques problèmes. Cette année, nous travaillerons avec les organes de l’Union européenne pour déterminer comment soutenir l’opérationnalisation de la législation sur les services numériques, avec une attention particulière accordée aux exigences en matière d’audit et de transparence.

Cet exercice d’enquête pourrait permettre de faire émerger des informations pertinentes sur les méfaits des systèmes de recommandation, sans compromettre les droits des utilisateurs des plateformes ou la propriété intellectuelle des entreprises.

Équipe

Lama Saouma

CEIMIA

Responsable des initiatives IA

Ali Knott

Victoria University of Wellington

Expert PMIA et co-responsable du projet

Dino Pedreschi

Université de Pise

Expert PMIA et co-responsable du projet

Comité de travail

Raja Chatila

Tapabrata Chakraborti

David Eyers

Andrew Trotman

Ricardo Baeza-Yates

Le projet a donné lieu à des discussions avec plusieurs entreprises (p. ex. Twitter, YouTube, Facebook) et organismes gouvernementaux (p. ex. Nouvelle-Zélande, Royaume-Uni, Canada, France), ainsi qu’à une participation à plusieurs initiatives internationales relatives aux contenus à caractère terroriste et lié à l’extrémisme violent, notamment l’Appel à l’action de Christchurch et le Global Internet Forum to Counter Terrorism.