Opinion : Ces 5 principes stricts peuvent nous aider à garder l’IA sous notre contrôle


L’intelligence artificielle nous aide discrètement depuis des décennies, avec des progrès qui s’accélèrent ces dernières années, mais 2023 restera dans les mémoires comme un moment de « big bang ».

Avec l’avènement de l’IA générative, la technologie a percé dans la conscience populaire et façonne le discours public, influençant les investissements et l’activité économique, suscitant la concurrence géopolitique et modifiant toutes sortes d’activités humaines, de l’éducation aux soins de santé en passant par les arts. Chaque semaine apporte son lot de nouveaux développements époustouflants. L’IA ne disparaît pas et le changement s’accélère.

L’élaboration des politiques évolue presque aussi rapidement, avec le lancement de nouvelles initiatives réglementaires cherchant à répondre au moment présent. Mais même si les efforts en cours du G7, de l’Union européenne et des États-Unis sont encourageants, aucun d’entre eux n’est universel et ne représente le bien commun mondial. En fait, alors que le développement de l’IA est piloté par une poignée de PDG et d’acteurs du marché dans quelques pays seulement, les voix de la majorité, en particulier celles des pays du Sud, ont été absentes des discussions sur la gouvernance.

Les défis uniques que pose l’IA exigent une approche mondiale coordonnée de la gouvernance, et une seule institution dispose de la légitimité inclusive nécessaire pour organiser une telle réponse : les Nations Unies. Nous devons mettre en place une bonne gouvernance de l’IA si nous voulons exploiter son potentiel et atténuer ses risques. C’est dans cet esprit que l’Organe consultatif de haut niveau des Nations Unies sur l’IA a été créé pour proposer des analyses et des recommandations visant à remédier au déficit de gouvernance mondiale. Il comprend un groupe de 38 personnes du monde entier, représentant une diversité géographique, de genre, d'horizons disciplinaires et d'âge, et s'appuyant sur l'expertise du gouvernement, de la société civile, du secteur privé et du monde universitaire.

Nous nous sentons privilégiés de faire office de comité exécutif de l'organisme consultatif. Aujourd'hui, nous avons publié le rapport intermédiaire du groupe qui propose cinq principes pour ancrer la gouvernance de l'IA et relever plusieurs défis interdépendants.

Premièrement, étant donné que les risques diffèrent selon les contextes mondiaux, chacun nécessitera des solutions adaptées en conséquence. Mais cela signifie reconnaître à quel point les droits et libertés peuvent être compromis par des choix spécifiques en matière de conception, d’utilisation (et d’utilisation abusive) et de gouvernance. Ne pas appliquer l’IA de manière constructive – ce que nous appelons des « utilisations manquées » – peut inutilement exacerber les problèmes et les inégalités existants.

Deuxièmement, puisque l’IA est un outil de développement économique, scientifique et social et qu’elle aide déjà les gens dans la vie quotidienne, elle doit être gouvernée dans l’intérêt public. Cela signifie garder à l’esprit les objectifs liés à l’équité, à la durabilité et au bien-être sociétal et individuel, ainsi que des questions structurelles plus larges telles que des marchés compétitifs et des écosystèmes d’innovation sains.

Troisièmement, les cadres réglementaires émergents dans différentes régions devront être harmonisés afin de relever efficacement les défis de gouvernance mondiale de l’IA.

Quatrièmement, la gouvernance de l’IA doit aller de pair avec des mesures visant à garantir le respect de l’action et à protéger la vie privée et la sécurité des données personnelles.

Enfin, la gouvernance doit être ancrée dans la Charte des Nations Unies, le droit international des droits de l'homme et d'autres engagements internationaux faisant l'objet d'un large consensus mondial, tels que les objectifs de développement durable.

Les risques d’une IA non gouvernée sont inacceptables.»

Affirmer ces principes dans le contexte de l’IA nécessite de surmonter certains défis tenaces. L’IA repose sur d’énormes quantités de puissance de calcul, de données et, bien sûr, de talents humains spécifiques. La gouvernance mondiale doit réfléchir à la manière de développer et de garantir un large accès à ces trois éléments. Il doit également aborder le renforcement des capacités des infrastructures de base qui sous-tendent l’écosystème de l’IA – comme un haut débit fiable et l’électricité – en particulier pour les pays du Sud.

Des efforts plus importants sont également nécessaires pour faire face aux risques connus et encore inconnus qui pourraient émerger du développement, du déploiement ou de l’utilisation de l’IA. Le risque lié à l’IA est un sujet très débattu. Alors que certains se concentrent sur d’éventuels scénarios de fin de l’humanité, d’autres s’inquiètent davantage des préjudices causés aux populations ici et maintenant ; mais il y a peu de désaccord sur le fait que les risques d’une IA non gouvernée sont inacceptables.

Lire: L’IA a besoin d’un code d’éthique solide pour empêcher son côté obscur de nous envahir

La bonne gouvernance s’appuie sur des preuves solides. Nous prévoyons la nécessité de procéder à des évaluations objectives de l’état de l’IA et de sa trajectoire, afin de donner aux citoyens et aux gouvernements une base solide pour la politique et la réglementation. Dans le même temps, un observatoire analytique permettant d’évaluer l’impact sociétal de l’IA – depuis les suppressions d’emplois jusqu’aux menaces pour la sécurité nationale – aiderait les décideurs politiques à suivre les immenses changements que l’IA entraîne hors ligne. La communauté internationale devra développer une capacité d’auto-surveillance, notamment en surveillant et en répondant aux incidents potentiellement déstabilisateurs (comme le font les grandes banques centrales face aux crises financières), et en facilitant la responsabilisation, voire l’action coercitive.

Ce ne sont là que quelques-unes des recommandations que nous proposons. Ils doivent être considérés comme un plancher et non comme un plafond. Plus que tout, ils invitent davantage de personnes à nous dire quels types de gouvernance de l’IA ils aimeraient voir.

Si l’IA veut réaliser son potentiel mondial, de nouvelles structures et garde-fous sont nécessaires pour nous aider tous à prospérer à mesure qu’elle évolue. Tout le monde a intérêt au développement sûr, équitable et responsable de l’IA. Les risques de l’inaction sont également clairs. Nous pensons que la gouvernance mondiale de l’IA est essentielle pour saisir les opportunités significatives et gérer les risques que cette technologie présente pour chaque État, communauté et individu aujourd’hui et pour les générations à venir.

Ian Bremmer, Carme Artigas, James Manyika et Marietje Schaake sont membres du comité exécutif de l'Organe consultatif de haut niveau des Nations Unies sur l'intelligence artificielle..

Bremmer est fondateur et président d'Eurasia Group et de GZERO Media. Artigas est le secrétaire d'État espagnol chargé de la numérisation et de l'intelligence artificielle. Manyika est vice-présidente principale de la recherche, de la technologie et de la société chez Google/Alphabet. Schaake, ancien membre du Parlement européen, est directeur politique du Cyber ​​Policy Center de l'Université de Stanford et président du CyberPeace Institute.

Ce commentaire a été publié avec la permission de Project Syndicate — What Global AI Governance Must Do.

Plus: L’IA pourrait s’avérer plus risquée que rentable si nous n’y prenons pas garde

A lire aussi : L’IA ne remplacera peut-être pas votre travail, mais elle va refaire votre travail. Une chose ne doit pas changer.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*