L’impact de l’IA sur la découvrabilité dans le secteur culturel – Avril 2025
Vers une gouvernance éthique de l’intelligence artificielle : enjeux, défis et perspectives
Par Guy-Philippe Wells, Directeur scientifique, LATICCE
Pour vous inscrire à la liste de diffusion de la veille technologique sur l’impact de l’IA sur la découvrabilité dans le secteur culturel, ou pour nous faire parvenir vos commentaires et suggestions pour les prochaines éditions, bien vouloir remplir ce court formulaire.
Résumé
Cette veille explore les mécanismes de régulation de l’intelligence artificielle (IA), en distinguant d’abord les concepts de régulation, réglementation et de gouvernance, puis en analysant les transformations profondes de la gouvernance à l’ère numérique. Il met en évidence l’évolution d’un modèle étatique vers une gouvernance en réseau impliquant acteurs publics et privés. Cinq défis majeurs sont identifiés : la vitesse des transformations technologiques, la question de la responsabilité, l’opacité des algorithmes, la protection des données personnelles, et les enjeux éthiques. À travers les approches réglementaires de l’Union européenne, des États-Unis et de la Chine, ainsi que des initiatives internationales comme celles de l’OCDE ou de l’UNESCO, le texte illustre la difficulté d’instaurer un cadre réglementaire harmonisé face aux divergences géopolitiques et culturelles.
La régulation de l’IA touche également la sphère culturelle, notamment à travers les enjeux de découvrabilité des œuvres. Les algorithmes de recommandation influencent profondément l’accès du public aux contenus culturels, risquant de marginaliser les créations locales ou minoritaires. Le texte souligne les biais linguistiques et culturels des modèles d’IA, ainsi que la standardisation croissante de la création artistique. Toutefois, il montre aussi le potentiel positif de l’IA en matière de découvrabilité et d’inclusion, à condition d’un encadrement transparent, éthique et démocratique. La régulation de l’IA n’est donc pas nécessairement un frein à l’innovation, mais une condition nécessaire à son intégration harmonieuse dans la société.
Table des matières
- 1. Régulation et réglementation
- 2. Régulation et technologie
- 3. Cinq défis
- 4. Cadres réglementaires existants
- 5. Perspectives mondiales
- 6. Régulation de l’IA et découvrabilité
- Conclusion
1. Régulation et réglementation
Cette veille vise à explorer les mécanismes de régulation de l’IA à l’échelle mondiale, en mettant en lumière les initiatives internationales, les cadres juridiques nationaux et les défis liés à l’harmonisation de ces réglementations.
Pour introduire le sujet, il nous faut d’abord distinguer « réglementation » et « régulation ». Les deux expressions sont souvent utilisées comme synonymes alors qu’il s’agit bien de deux notions distinctes. La réglementation est définie comme étant un « ensemble des mesures légales et réglementaires régissant une question.» (Larousse, 2025)
Trudel (1998) définit la régulation comme un processus assurant le bon fonctionnement d’un ensemble complexe, impliquant à divers degrés l’État, le marché et la société civile. Raboy (2003) rappelle que l’absence d’intervention d’un acteur fait aussi partie du processus de régulation. Avec l’IA comme avec Internet, la régulation ne concerne plus la rareté, mais l’abondance, posant de nouveaux défis.
La gouvernance constitue un troisième concept qui lie les deux premiers. Si la réglementation est un résultat et la régulation un processus, la gouvernance peut être définie comme étant le système mis en place par lequel les acteurs participent à la prise de décision et à sa mise en oeuvre.
Raboy (2003) souligne que chaque innovation technologique dans le domaine des communications a entraîné des transformations des régimes de gouvernance. Depuis le télégraphe jusqu’à Internet, les modes de régulation ont évolué sous l’influence conjointe de l’État, du marché et de la société civile, s’adaptant à des contextes spécifiques. La mondialisation et la convergence des technologies de communication créent des tensions entre les différents modèles d’affaires, les préoccupations des individus et les cadres de régulation nationaux existants face à un nouveau phénomène global.
Stigler (1971) conçoit la régulation comme une lutte politique entre entreprises et population, les premières ayant souvent l’avantage en raison de leurs intérêts concentrés. Cependant, cette vision évolue avec la multiplicité des acteurs et l’émergence de la « gouvernance en réseau » (Castell, 1996). L’État, bien que central, a vu son rôle de régulateur s’intensifier alors que son rôle de pourvoyeur s’est réduit. Simultanément, les entreprises ont pris une part croissante dans la régulation, aboutissant à une hybridation des régulations publiques et privées, où l’on observe une privatisation du public et une étatisation du privé.
Levi-Faur (2005) distingue trois étapes du capitalisme : i) le capitalisme du laisser-faire (1800-1930), ii) le capitalisme de providence (1930-1970), iii) le capitalisme régulateur (1970 — à aujourd’hui). Ce dernier conjugue expansion du marché et croissance des régulations publiques et privées. Braithwaite (2008) conteste l’idée d’une déréglementation massive depuis les années 1980, affirmant que le capitalisme régulateur a conduit à une augmentation des mécanismes de régulation plutôt qu’à une simple libéralisation.
Levi-Faur (2011) préconise de se focaliser sur les « régimes régulateurs » plutôt que sur la régulation seule, en s’inspirant de la définition de Krasner (1982) : « un ensemble de principes, normes et processus autour desquels les acteurs convergent. »
Ainsi, le concept de régulation a connu une transformation profonde, passant d’un modèle centré sur l’État à une gouvernance en réseau impliquant un large éventail d’acteurs publics et privés. Cette hybridation de la régulation marque l’évolution vers une approche plus complexe où la collaboration et la négociation peuvent jouer un rôle plus important dans la constitution du régime régulateur. Ceci n’évacue pas la confrontation entre les différents acteurs de la régulation, mais impose une multitude de lieux possibles de sa manifestation. Le régime régulateur se constitue donc comme une toile d’araignée, les positionnements des acteurs ayant un impact les uns sur les autres, chacun agissant selon sa mission et ses intérêts, leurs rapports n’étant dans plusieurs cas pas définis par une relation d’autorité claire qui pourrait s’exercer sur l’ensemble du régime.
2. Régulation et technologie
Régulation et développement technologique font régulièrement l’objet de discours les présentant comme étant des adversaires. Plus précisément, la réglementation gouvernementale est souvent représentée comme étant un frein au développement technologique. L’État agirait comme un acteur qui s’ingère dans la marche du progrès en adoptant des règles inadéquates qui compliquent inutilement le bon fonctionnement des entreprises créatives. Schématiquement, on présenterait les entreprises de la technologie comme symbolisant la croissance, le progrès et le libre marché, alors que l’État symboliserait plutôt la bureaucratie, la paperasserie et la complexité. La relation entre régulation et technologie est évidemment plus complexe.
Par exemple, le développement technologique repose en grande partie sur la protection accordée par les lois sur la propriété intellectuelle. Sans ce cadre légal qui protège l’innovation, les investissements nécessaires à la recherche technologique seraient beaucoup plus difficiles à assurer. Les entreprises de la technologie sont généralement les premières à réclamer de meilleures protections de la propriété intellectuelle ainsi qu’une régulation internationale visant la protection de leurs intérêts économiques. De même, les mesures de régulation visant la compatibilité des systèmes à travers le monde, celles qui assurent leur bon fonctionnement, sont généralement bienvenues. On voit donc qu’une partie de la régulation est jugée par les entreprises comme étant favorable au progrès technologique.
Là où les entreprises deviennent particulièrement réfractaires est lorsque les États évaluent les effets de leurs activités sur la société et les individus et agissent comme arbitre entre les intérêts des entreprises et ceux des autres membres de la société. Les États ont dans ce cadre le pouvoir de mettre en œuvre une régulation qui contraint les activités des entreprises et qui complexifie leurs opérations, lorsque celles-ci sont jugées comme ayant des effets néfastes sur d’autres parties de la société.
Wiener (2004) propose une approche originale du concept de régulation sous la forme d’une technologie de gouvernance pour laquelle une série d’outils et d’instruments sont sélectionnés pour veiller au bon fonctionnement du système :
« The influence of regulation on technology is critically dependent on the technology of regulation. Different regulatory designs can impede or accelerate technological change, or shape it in varying ways, favoring some kinds of technology over others. » (Wiener : 484)
On revient donc ici à l’idée de régimes régulateurs constitués d’une série d’outils de gouvernance, mais l’on y ajoute la perspective de l’intégration de la régulation au processus d’innovation, transformant le caractère oppositionnel généralement attribué à la relation entre la technologie et la régulation en une co-constitution à l’intérieur d’un même système.
Ainsi, les études d’impacts liés au développement technologique sont souvent maintenant à double sens. Non seulement analyse-t-on les impacts des nouvelles technologies sur les sociétés pour déterminer quelle est la régulation pertinente à appliquer, mais également procédons-nous à l’analyse des impacts de la régulation sur les nouvelles technologies afin de limiter ses effets néfastes au progrès social.
L’on trouve donc la possibilité de créer des innovations technologiques en matière de régulation qui permettront non seulement d’améliorer l’efficacité système, mais également d’en améliorer l’aspect concurrentiel. Lorsqu’il est possible d’intégrer à l’évaluation des impacts de la technologie et de la régulation leurs externalités positives et négatives, c’est-à-dire les effets négatifs ou positifs de l’acte de production, de consommation et de régulation des agents économiques sur les autres, l’on peut être en mesure de définir la nature du régime régulateur la mieux adaptée au contexte dans lequel on se trouve. On ne peut tenir compte que des externalités économiques, les externalités sociales ayant un caractère essentiel dans les évaluations d’impacts.
Ceci nous amène à l’idée que le régime régulateur doit être encastré dans un espace politiquement défini. Les sociétés étant constituées de manière distincte à travers le monde, les enjeux et leur réalité étant souvent très différents d’un État à l’autre. S’il est déjà complexe de mesurer les externalités positives et négatives sur le territoire d’un État, il devient dans plusieurs cas improbable d’y arriver sur le plan mondial. C’est pourquoi nous présenterons dans cette veille la régulation adoptée par les États considérés comme étant les principaux acteurs du développement de l’intelligence artificielle.
3. Cinq défis
L’intelligence artificielle (IA) est devenue un enjeu majeur au niveau mondial, nécessitant une régulation efficace pour encadrer son développement et son utilisation. La diversité des approches réglementaires adoptées par différents pays reflète la complexité du sujet, qui touche des domaines aussi variés que l’éthique, la protection des données, la sécurité et l’impact sur l’emploi.
L’évolution rapide des technologies d’IA, notamment les systèmes d’apprentissage profond et les modèles génératifs, pose des défis inédits en matière de gouvernance. Nous pouvons identifier cinq grands défis posés par l’IA en matière de régulation.
1. Le premier est la rapidité des transformations technologiques dans le secteur de l’IA. Les capacités des modèles d’IA et les différentes formes d’usages de l’IA qui voient le jour à grande vitesse représentent un défi pour la définition de régulations pertinentes et efficaces. Certains estiment qu’il est préférable d’attendre qu’une innovation ait atteint une forme de stabilité avant de la réguler alors que d’autres observent qu’il est très complexe de réguler les entreprises arrivées à maturité lorsqu’elles deviennent très puissantes et influentes sur les corps politiques.
2. Le second est la détermination de la responsabilité sur un modèle d’IA. Qui est responsable en cas de préjudices ou de défaillances causés par l’IA ? Est-ce le développeur, l’entreprise ou l’utilisateur ? Le corollaire de ce défi est la détermination des bénéficiaires des fruits de l’utilisation d’un modèle d’IA. En culture, cette question est de premier ordre pour les ayants droit qui voient leurs œuvres utilisées pour l’entraînement des modèles d’IA qui permettent ensuite aux entreprises qui les développent de récolter des bénéfices conséquents. La définition des chaînes de valeur et de responsabilité constitue un défi important pour la régulation de l’IA, d’autant plus que les sensibilités des États sur cette question se distinguent de manière notable.
3. Le troisième défi est l’opacité et les biais possibles des algorithmes. Celui-ci relève de la construction même des modèles d’IA qui reposent sur la collecte massive de données qui deviennent difficiles à identifier, même pour leurs concepteurs. Les algorithmes constituent ainsi souvent des « boîtes noires » évaluées davantage par les résultats qu’ils procurent que par la qualité ou la justesse des données sur lesquelles ils sont entraînés. Les engrenages des algorithmes sont donc complexes à réguler, d’autant plus qu’ils sont généralement évolutifs dans le temps. Il n’en demeure pas moins que cette complexité mène parfois à des résultats socialement inquiétants qui, lorsque les modèles d’IA sont laissés à eux-mêmes, peuvent avoir des impacts majeurs sur la vie des individus, sur les réalités économiques des entreprises et sur les moyens que doivent prendre les gouvernements pour arriver à définir les mesures pertinentes à adopter.
4. Le quatrième défi est celui de la protection des données personnelles. L’utilisation massive des données disponibles sur internet rend difficile de garantir l’anonymat ou la recherche du consentement éclairé des individus ou organisations qui génèrent les données utilisées. Dans le secteur culturel, il apparaît évident que les œuvres de milliers d’artistes ont été utilisées sans avoir obtenu le consentement des ayants droit. S’opposent ici les lois sur la protection de la propriété intellectuelle et les besoins des concepteurs des modèles d’IA qui soutiennent utiliser les données massives dans le cadre de leurs recherches et non pour les fins pour lesquelles les œuvres sont protégées.
5. Le cinquième et dernier défi que nous avons identifié est celui de l’éthique et des valeurs confrontées par le développement des modèles d’IA. D’abord, l’IA générative permet de créer des textes, des images et des vidéos qui peuvent être utilisés comme outil de désinformation et de propagande à grande échelle. Ensuite, lorsqu’un modèle d’IA produit des résultats discutables, qui détient le pouvoir de définir ce qui est moralement acceptable ? La réponse à cette question est rendue encore plus complexe par la portée mondiale des modèles d’IA.
À la lumière de ces cinq défis, nous constatons que le champ de la régulation de l’IA est très vaste et touche des activités qui sont très différentes les unes des autres. Un ensemble de considérations sociales, économiques, juridiques et politiques sont à mesurer et comprendre afin de favoriser la mise en place d’une régulation efficace, pertinente et équitable.
4. Cadres réglementaires existants
Face aux perspectives d’impacts majeurs de l’IA sur nos vies personnelles et professionnelles, plusieurs voix se sont élevées au cours des dernières années afin d’encadrer les activités des entreprises de l’IA
4.1 Les cadres nationaux
4.1.1 Union européenne : un modèle précurseur
L’Union européenne (UE) s’est positionnée comme un leader en matière de régulation de l’IA avec l’Artificial Intelligence Act (AIA). Ce cadre législatif vise à classer les systèmes d’IA selon leur niveau de risque et à imposer des restrictions sur ceux présentant un risque élevé pour les droits fondamentaux. Les catégories de risque vont de « risque minimal » (exempt de régulation spécifique) à « risque inacceptable » (interdit, comme la surveillance de masse prédictive). L’AIA impose également des obligations strictes de transparence et de documentation pour les fournisseurs d’IA à haut risque, visant à assurer la sécurité et l’équité des systèmes.
Le Règlement général sur la protection des données (RGPD) constitue également un instrument clé dans la gouvernance de l’IA en imposant des exigences strictes sur l’utilisation des données personnelles. Par ailleurs, la Commission européenne travaille sur la mise en place de comités d’évaluation et de certification pour assurer la conformité des systèmes d’IA avec les standards européens.
4.1.2 États-Unis : une approche axée sur l’autorégulation
Aux États-Unis, la régulation de l’IA repose principalement sur des principes d’autorégulation et des lignes directrices sectorielles. Bien que certaines agences gouvernementales, telles que la Federal Trade Commission (FTC), interviennent pour limiter les abus, il n’existe pas de cadre fédéral unique pour encadrer l’IA. Le gouvernement fédéral privilégie une approche axée sur l’innovation et la compétitivité, en encourageant les entreprises à développer des normes volontaires.
Toutefois, plusieurs États, comme la Californie et l’Illinois, ont adopté des législations spécifiques sur l’IA, notamment en ce qui concerne la reconnaissance faciale et la collecte de données biométriques. De plus, l’administration Biden a publié un projet de « Blueprint for an AI Bill of Rights » qui définit cinq principes fondamentaux pour garantir des systèmes d’IA sûrs et éthiques, incluant la protection contre la discrimination algorithmique et la transparence des décisions automatisées.
L’administration Trump a pour sa part révoqué la plupart des orientations définies par l’administration précédente en faisant valoir que ces interventions gouvernementales «ont entravé la capacité du secteur privé à innover dans le domaine de l’IA en imposant un contrôle gouvernemental sur le développement et le déploiement de l’IA.» (Maison Blanche, 2025) Cette même administration n’a cependant pas hésité à interdire à Nvidia l’exportation vers la Chine de processeurs utiles à la recherche en IA.
4.1.3 Chine : un contrôle étatique renforcé
La Chine adopte une approche centralisée de la régulation de l’IA, avec des directives gouvernementales strictes encadrant son développement. Le gouvernement chinois impose des règles sur la transparence des algorithmes et la censure de certains contenus, mesures qu’il considère favorables à la stabilité sociale. En 2021, Pékin a introduit des réglementations exigeant que les entreprises technologiques soumettent leurs algorithmes d’IA à une supervision gouvernementale.
En outre, la Chine a établi des régulations spécifiques pour l’IA dans les secteurs financiers et de la santé, imposant des audits stricts et une surveillance accrue pour éviter les abus. L’objectif est de concilier développement technologique rapide et contrôle étatique, garantissant ainsi que les avancées en IA s’inscrivent dans les priorités politiques du pays.
4.2 Initiatives internationales
4.2.1 L’OCDE et les principes directeurs
L’Organisation de coopération et de développement économiques (OCDE) a établi des principes directeurs sur l’IA, axés sur la transparence, la robustesse, l’équité et la responsabilité. Ces principes visent à orienter les politiques publiques des pays membres et à promouvoir une utilisation éthique de l’IA. Ils constituent une base de référence pour harmoniser les approches nationales et encourager la coopération internationale en matière de gouvernance de l’IA.
4.2.2 L’ONU et l’UNESCO
L’ONU, par le biais de l’UNESCO, a élaboré une recommandation sur l’éthique de l’IA, adoptée par plusieurs pays. Ce document encourage les États à intégrer des principes de responsabilité, de respect des droits de la personne et de développement durable dans leurs cadres réglementaires. L’UNESCO recommande la mise en place d’organismes nationaux de supervision de l’IA et promeut des collaborations scientifiques internationales pour garantir un développement inclusif et équitable des technologies d’IA.
4.2.3 Partenariats et alliances internationales
Des alliances, telles que le Partenariat mondial sur l’intelligence artificielle (GPAI) et le Conseil de l’IA du G7, cherchent à favoriser la coopération internationale pour une régulation harmonisée. Ces initiatives facilitent le partage des meilleures pratiques et la mise en place de normes communes. Des forums tels que le Forum économique mondial discutent également de la régulation de l’IA, mettant en avant la nécessité d’une gouvernance flexible et adaptable aux évolutions technologiques.
5. Perspectives mondiales
5.1 Divergences culturelles et politiques
Les différences culturelles et politiques entre les grandes puissances mondiales compliquent l’adoption d’un cadre réglementaire universel. L’équilibre entre innovation, compétitivité et protection des citoyens varie selon les priorités de chaque pays. Les tensions géopolitiques entre les États-Unis, l’Europe et la Chine ralentissent les négociations sur des normes communes, rendant difficile l’instauration d’une régulation mondiale uniforme.
5.2 Régulation des IA génératives
Les avancées récentes en IA générative, telles que ChatGPT et DALL-E, soulèvent des questions inédites en matière de droits d’auteur, de désinformation et d’usage abusif. La régulation de ces technologies nécessite des cadres adaptés à leur rapidité d’évolution. Certaines propositions incluent la mise en place d’étiquettes obligatoires pour le contenu généré par l’IA et l’obligation pour les entreprises de divulguer les bases de données d’entraînement utilisées.
5.3 Encadrement des biais algorithmiques
Les biais algorithmiques constituent un enjeu majeur pour garantir une IA équitable et non discriminatoire. La mise en place de normes pour tester et corriger ces biais est essentielle pour assurer une adoption responsable de l’IA. Des initiatives telles que la création de bases de données diversifiées et le développement de mécanismes de correction automatique des biais sont en cours d’évaluation.
6. Régulation de l’IA et découvrabilité
À l’heure où l’intelligence artificielle (IA) redéfinit les contours de la création, de la consommation et de la diffusion culturelle, la question de la découvrabilité des œuvres culturelles devient centrale. Comment les publics accèdent-ils aux contenus culturels dans un monde dominé par les algorithmes de recommandation ? Quels sont les enjeux pour les créateurs, les institutions et les citoyens ? L’IA bouleverse les modes traditionnels de mise en valeur des œuvres, en créant de nouvelles opportunités, mais aussi de profondes inégalités d’accès à la visibilité. Face à ces profondes transformations, les États se sont vus sollicités d’adopter des mesures afin de limiter leurs effets néfastes pour les artistes, les industries culturelles locales et les individus et de tenter de définir des voies de développement qui permettraient au secteur culturel de profiter des opportunités offertes par l’IA.
6.1 Algorithmes de recommandation : un filtre entre l’œuvre et le public
Le premier enjeu majeur de l’IA pour la découvrabilité culturelle réside dans les algorithmes de recommandation. Ces systèmes, omniprésents sur les plateformes comme Netflix, Spotify, YouTube ou TikTok, orientent les choix des utilisateurs. Plutôt que de chercher activement une œuvre, l’utilisateur est guidé par des suggestions automatiques basées sur son historique, ses préférences ou son comportement. Cela peut être pratique, voire enrichissant, mais cela comporte un risque : celui d’enfermer l’utilisateur dans une bulle algorithmique où seules les œuvres similaires à ses choix passés apparaissent.
Ce fonctionnement engendre une logique de renforcement : les contenus populaires deviennent encore plus visibles, tandis que les œuvres plus confidentielles ou atypiques peinent à émerger. Les plateformes tendent ainsi à privilégier les productions qui maximisent l’engagement, au détriment d’une diversité culturelle authentique.
Le Canada peut agir comme leader mondial sur cette question suite à l’adoption de la Loi sur la diffusion continue en ligne qui a été adoptée en 2023. Elle prévoit notamment « assurer la découvrabilité des services de programmation canadienne ainsi que des émissions canadiennes originales, notamment les émissions de langue originale française, dans une proportion équitable. » (Art. 7 (i)) L’objectif du gouvernement canadien est d’assurer que les émissions canadiennes ne se perdent pas dans la multitude de choix d’émissions offertes aux Canadiens. Pour le gouvernement, il est essentiel que les Canadiens de tous les horizons puissent se reconnaître dans les émissions qui leur sont accessibles.
C’est le CRTC qui est chargé de définir et de mettre en œuvre le cadre réglementaire sur la découvrabilité des œuvres canadiennes. Ce travail est amorcé et nous en saurons davantage au cours des prochains mois sur les orientations déterminées par le CRTC.
6.2 Diversité culturelle et linguistique : des biais algorithmiques persistants
La diversité culturelle, linguistique et géographique souffre particulièrement de cette logique. Les IA sont entraînées sur de vastes ensembles de données, souvent dominés par la langue anglaise et les cultures anglo-saxonnes. Conséquemment, les œuvres issues de cultures minoritaires ou de pays non anglophones sont sous-représentées, voire invisibles dans les recommandations automatisées.
Les créateurs locaux, les artistes autochtones, les productions en langues minoritaires doivent souvent redoubler d’efforts pour se faire remarquer. Ce phénomène contribue à une forme d’uniformisation culturelle, où les œuvres qui ne correspondent pas aux normes dominantes sont écartées.
6.3 Optimisation des contenus pour les algorithmes : une création sous contrainte
Face à ces réalités, de nombreux créateurs adaptent leurs pratiques pour mieux « plaire » aux algorithmes. Sur YouTube, par exemple, les vidéos sont calibrées pour durer entre 8 et 12 minutes, avec un rythme rapide, des titres optimisés pour le clic, et des thématiques populaires. La musique est parfois composée en pensant à son potentiel sur TikTok ou Spotify. Il en va de même pour l’incitation pour les artistes à créer en anglais, la langue dominante sur les plateformes.
Cette tendance pose un enjeu profond pour la création artistique : dans quelle mesure l’art reste-t-il libre lorsqu’il est produit dans l’objectif de satisfaire une logique algorithmique ? Si les critères de visibilité deviennent des normes de création, le risque est grand de voir apparaître une culture formatée, standardisée, répondant à des impératifs d’efficacité plutôt qu’à une volonté artistique.
6.4 L’IA comme outil de découvrabilité positive
Cependant, l’IA n’est pas nécessairement un frein à la diversité culturelle. Bien conçue, elle peut devenir un formidable outil de découvrabilité. Par exemple, des algorithmes peuvent être développés pour favoriser la nouveauté, la rareté ou la diversité dans les recommandations. Certaines plateformes commencent à explorer cette voie, en proposant des suggestions basées sur des critères moins populaires, mais plus exploratoires.
De plus, l’IA peut aider à créer de nouveaux modes de recherche ou de navigation dans les contenus : recherche sémantique, parcours interactifs, associations thématiques originales. Elle peut aussi aider à la traduction automatique ou à l’accessibilité des contenus, en permettant à des publics variés d’accéder à des œuvres qu’ils n’auraient jamais pu découvrir autrement.
6.5 Enjeux éthiques et politiques : réguler pour mieux découvrir
Enfin, la question de la découvrabilité culturelle à l’ère de l’IA est aussi une question politique. Qui contrôle les algorithmes ? Quels objectifs et intérêts servent-ils ? Quelles garanties existent pour assurer une visibilité équitable ?
Certaines réglementations commencent à apparaître. Des pays imposent déjà des quotas de contenus locaux sur les plateformes. D’autres explorent des pistes pour rendre les algorithmes plus transparents, auditables, voire modulables par les utilisateurs eux-mêmes. Le débat sur la responsabilité algorithmique est loin d’être clos, mais il est décisif pour l’avenir de la création culturelle.
Conclusion
Au terme de cette exploration des dynamiques de régulation de l’IA, il apparaît que cette technologie, bien qu’elle incarne une formidable avancée, appelle au développement de régimes régulateurs qui encadreront ses activités. L’IA s’impose comme un objet à la fois mondial et local, technologique et politique, éthique et économique. Elle bouleverse les équilibres établis, remet en question les mécanismes classiques de gouvernance et exige de nouvelles formes de coordination entre les acteurs.
La complexité de la régulation de l’IA réside d’abord dans sa nature même : évolutive, transversale, multifonctionnelle. Les cinq grands défis identifiés dans cette veille — la rapidité technologique, la responsabilité, l’opacité algorithmique, la protection des données et les enjeux éthiques — révèlent combien la régulation ne peut être pensée uniquement en termes juridiques ou techniques. Elle doit s’ancrer dans une compréhension fine des transformations sociales, culturelles, environnementales et économiques qu’entraîne l’IA.
Face à cela, les États, les entreprises, les citoyens et les organisations internationales doivent apprendre à co-construire des régimes régulateurs souples, inclusifs et adaptatifs. Si l’Union européenne adopte une approche normative structurée, les États-Unis misent sur l’innovation autorégulée, et la Chine sur un contrôle centralisé, aucune de ces voies n’offre à elle seule une réponse globale aux enjeux de l’IA. Les divergences culturelles, politiques et géopolitiques rendent la perspective d’une régulation mondiale harmonisée difficile, mais non impossible là où les préoccupations convergent.
La régulation mondiale de l’IA est un chantier incertain, nécessitant une coopération entre États, entreprises et organisations internationales. Si certains modèles réglementaires se distinguent, l’enjeu principal reste l’harmonisation des approches pour éviter une fragmentation excessive du marché et garantir une IA éthique et sécurisée. La mise en place de standards internationaux et de mécanismes de surveillance transparents pourrait constituer une solution viable pour relever ces défis tout en préservant l’innovation et la compétitivité. Mais les possibilités de coopération sont aujourd’hui très fragiles, particulièrement dans le contexte actuel de guerre commerciale où il paraît difficile même de l’imaginer.
La découvrabilité culturelle constitue un exemple éloquent des effets ambivalents de l’IA : elle peut uniformiser les contenus ou, au contraire, en élargir l’accès. L’IA reconfigure en profondeur les mécanismes de la découvrabilité culturelle. Elle peut enfermer les publics dans des logiques de consommation répétitive, mais aussi ouvrir de nouveaux horizons si elle est pensée dans une logique d’équilibre, de diversité et d’ouverture. L’enjeu, pour les créateurs, les institutions et les citoyens, est d’imaginer un futur culturel où l’intelligence artificielle ne remplace pas l’humain, mais le soutient dans sa capacité à explorer, à s’émerveiller et à découvrir.
La manière dont nous encadrons les algorithmes, dont nous favorisons la diversité dans les données, et dont nous définissons la place de l’humain dans les processus de recommandation est révélatrice du type de société numérique que nous souhaitons construire.
Il est donc crucial de penser la régulation non pas comme une entrave à l’innovation, mais comme un levier de confiance, de justice et d’inclusion. L’IA, si elle est encadrée de manière éthique et démocratique, peut véritablement renforcer les droits, l’autonomie et la créativité des individus. Cela suppose cependant que les régulateurs ne soient pas en retard sur les développeurs, que les principes éthiques soient intégrés dès la conception des systèmes, et que la société civile soit activement impliquée dans les choix technologiques.
Finalement, la régulation de l’intelligence artificielle est un processus dynamique, qui exige des ajustements constants, une transparence renforcée et un dialogue soutenu entre les différentes parties prenantes. Plus qu’un simple enjeu juridique, elle est un défi de société. Elle appelle à une gouvernance partagée, à une innovation responsable et à une vigilance citoyenne pour que l’IA demeure un outil au service du bien commun.
Références
Braithwaite, J. (2008). Regulatory Capitalism. Edward Elgar Publishing Limited
Krasner, S. (1982). Structural Causes and Regime Consequences: Regimes as Intervening Variables. International Organization, Printemps, 185–205.
Levi-Faur, D. (2005). The Global Diffusion of Regulatory Capitalism. The ANNALS of the American Academy of Political and Social Science, 598, 12–32.
Levi-Faur, D. (dir.). (2011). Handbook on the politics of regulation. Edward Elgar.
Maison Blanche, 2025. Fact Sheet: President Donald J. Trump Takes Action to Enhance America’s AI Leadership. https://www.whitehouse.gov/fact-sheets/2025/01/fact-sheet-president-donald-j-trump-takes-action-to-enhance-americas-ai-leadership/
Raboy, M. (1999). « L’État ou les États-Unis » : l’influence américaine sur le développement d’un modèle canadien de radiodiffusion. Dans F. Sauvageau (dir.), Variations sur l’influence culturelle américaine. Presses de l’Université Laval.
Stigler, G. J. (1971). The Theory of Economic Regulation. The Bell Journal of Economics and Management Science, 2(1), 3. https://doi.org/10.2307/3003160
Wiener, Jonathan B. 2004. The regulation of technology, and the technology of regulation. Technology in Society 26, 483–500.
https://scholarship.law.duke.edu/cgi/viewcontent.cgi?article=1960&context=faculty_scholarship
Cet article est le résultat d’une collaboration entre LATICCE-UQAM, CEIMIA et Mitacs.
Les opinions exprimées et les arguments avancés dans cette veille demeurent sous l’entière responsabilité du rédacteur.
- Direction scientifique : Michèle Rioux, directrice du LATICCE
- Rédaction : Guy-Philippe Wells, directeur scientifique du LATICCE
- Coordination et révision : Janick Houde, Nathalie Noël et Arnaud Quenneville-Langis du CEIMIA
- Centre d’expertise international de Montréal en intelligence artificielle (CEIMIA)
- 7260 Rue Saint-Urbain, Montréal, QC H2R 2Y6, suite, 602, CANADA. Site web: www.ceimia.org
- Centre d’études sur l’intégration et la mondialisation (CEIM)
- UQAM, 400, rue Sainte-Catherine Est, Pavillon Hubert-Aquin, bureau A-1560, Montréal (Québec) H2L 2C5
- CANADA. Téléphone : 514 987-3000, poste 3910 / Courriel: ceim@uqam.ca / Site web: www.ceim.uqam.ca