Intitulé « L’IA comme bien public : Garantir un contrôle démocratique de l’IA dans l’espace informationnel« , le cadre de régulation (policy framework) publié le 28 février 2024 contient plus de 200 recommandations adressées aux États et aux entreprises d’IA. Il adopte une approche globale en appelant à la mise en place de systèmes d’IA sûrs et inclusifs, à la création de mécanismes de redevabilité et d’incitations pour une IA éthique et de nouveaux mécanismes de gouvernance.

Les recommandations politiques ont été élaborées par un Groupe de travail international comprenant 14 membres issus de disciplines diverses et de 13 pays sur tous les continents. Le groupe était co-présidé par Laura Schertel Mendes, Professeure de droit, et Jonathan Stray, Chercheur principal, et composé de Rachel Adams, Linda Bonyo, Marta Cantero Gamito, Alistair Knott, Syed Nazakat, Alice Oh, Alejandro Pisanty, Gabriela Ramos, Achim Rettinger, Edward Santow, Suzanne Vergnolle et Claes de Vreese. Pendant plus de 6 mois, ils ont travaillé dans le cadre d’un processus inclusif et consultatif, recueillant des contributions de plus de 150 experts du monde entier.

Présenté par Christophe Deloire, président du Forum sur l’information et la démocratie, lors d’un événement de lancement mondial organisé dans 5 villes à travers 4 continents, le rapport fournit des recommandations clés à l’attention des gouvernements, de l’industrie et des parties prenantes pertinentes, notamment :

  • Favoriser la création d’un système de certification adapté pour les entreprises d’IA, inspiré par le succès du système de certification du commerce équitable (Fair Trade AI).
  • Établir des normes régissant l’authenticité et la provenance du contenu, y compris l’authentification de l’auteur.
  • Mettre en place un cadre juridique définissant clairement les droits des individus, y compris le droit à l’information, à recevoir une explication, à contester un résultat généré par une machine et à la non-discrimination.
  • Offrir aux utilisateurs des alternatives facilement accessibles de systèmes de recommandation qui ne maximisent pas l’engagement mais s’appuient sur un classement en faveur de résultats individuels et sociétaux positifs, tels que des informations fiables, des contenus fédérateurs ou une diversité d’informations.
  • Mettre en place un processus participatif pour déterminer les règles et critères guidant la provenance et la curation des jeux de données, l’étiquetage humain des données, l’alignement et du red-teaming pour construire des systèmes d’IA inclusifs, non discriminatoires et transparents.

« Les démocraties doivent cesser de permettre aux entreprises de la tech de dicter la trajectoire de la technologie, de s’emparer du récit politique et d’orienter les agendas. Des solutions existent pour construire un espace mondial de l’information et de la communication propice à la démocratie, qui crée de la valeur pour les personnes non seulement en tant que consommateurs, mais surtout en tant que citoyens. Nous présentons ces solutions aujourd’hui. Elles appellent à la mise en place d’un cadre encourageant les entreprises qui développent et déploient des systèmes d’IA à mettre en œuvre des procédures démocratiques, des mesures pour un développement et une utilisation éthiques de l’IA et l’établissement d’un régime de responsabilité, de gouvernance et de surveillance », souligne Michael Bąk, Directeur exécutif du Forum sur l’information et la démocratie. « Nous appelons cela l’IA du ‘commerce équitable’ ou Fair Trade AI. »

Les événements récents ont montré le pouvoir destructeur que l’IA peut avoir sur les processus politiques. Les deepfakes de personnalités politiques peuvent influencer des élections, et les systèmes d’IA peuvent amplifier les contenus qui aggravent les conflits et les crises. Les chatbots ont déjà fourni des informations incorrectes sur les élections. Les systèmes d’IA peuvent reproduire les inégalités et les hégémonies culturelles existantes et conduire à la discrimination et aux partis pris. Pourtant, l’IA présente également des possibilités inexploitées pour renforcer la production d’information, l’analyse des données et l’accès à l’information. 

« Si le développement et l’utilisation de l’IA continuent sur cette lancée, cela soulève d’importantes difficultés pour l’environnement informationnel qui nourrit les processus démocratiques. Nous sommes à la veille d’un changement majeur dans le paysage de la gouvernance de l’IA, passant des idées à la régulation. Il est temps pour les États d’agir, et notre feuille de route vise à aider les décideurs politiques à défendre la démocratie« , expliquent Laura Schertel Mendes et Jonathan Stray, co-présidents du groupe de travail.

Le rapport est lancé à l’occasion d’un événement mondial dans cinq villes de quatre continents. Cet événement comprend un lancement en ligne et des débats locaux organisés en collaboration avec plusieurs partenaires : le Center for Human-Compatible Artificial Intelligence (UC Berkeley, États-Unis), la Florence School of Transnational Governance (Institut universitaire européen, Italie), l’Institute of Education, Development and Research (Brésil), Research ICT Africa (Afrique du Sud), et la Paris School of International Affairs, Tech and Global Affairs Innovation Hub (SciencesPo, France).

Christophe Deloire, président du Forum sur l’information et la démocratie, a présenté les principaux enseignements du rapport depuis Paris, suivi de remarques des co-présidents Jonathan Stray et Laura Schertel Mendes respectivement à Berkeley et Brasilia. Scott Timcke interviendra depuis Le Cap et Marta Cantero Gamito depuis Florence, avant de donner la parole à Gabriela Ramos, membre du groupe de travail ayant dirigé l’élaboration de la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle.