La plus grande association mondiale de professionnels de l’informatique publie des principes pour les technologies d’IA génératives

[ad_1]

En réponse aux avancées majeures des technologies d’IA générative – ainsi qu’aux questions importantes que ces technologies posent dans des domaines tels que la propriété intellectuelle, l’avenir du travail et même la sécurité humaine – le Conseil mondial de politique technologique (ACM TPC) de l’Association for Computing Machinery a publié des “Principes pour le développement, le déploiement et l’utilisation des technologies d’IA génératives”.

S’appuyant sur l’expertise technique approfondie d’informaticiens aux États-Unis et en Europe, la déclaration ACM TPC décrit huit principes destinés à favoriser une prise de décision juste, précise et bénéfique concernant les technologies génératives et toutes les autres technologies d’IA. Quatre des principes sont spécifiques à l’IA générative, et quatre principes supplémentaires sont adaptés de la « Déclaration sur les principes pour des systèmes algorithmiques responsables » de 2022 du TPC.

L’introduction aux nouveaux principes avance l’argument central selon lequel “la puissance croissante des systèmes d’IA générative, la vitesse de leur évolution, leur large application et le potentiel de causer des dommages importants, voire catastrophiques, signifient qu’il faut faire très attention dans la recherche, la conception , en les développant, en les déployant et en les utilisant. Les mécanismes et modes existants pour éviter de tels dommages ne suffiront probablement pas.

Le document énonce ensuite ces huit principes instrumentaux, décrits ici sous une forme abrégée :

Principes spécifiques à l’IA générative

  • Limites et conseils de déploiement et d’utilisation : En consultation avec toutes les parties prenantes, la loi et la réglementation doivent être revues et appliquées telles qu’elles sont écrites ou révisées pour limiter le déploiement et l’utilisation des technologies d’IA générative lorsque cela est nécessaire pour minimiser les dommages. Aucun système d’IA à haut risque ne devrait être autorisé à fonctionner sans des garanties claires et adéquates, y compris un “humain dans la boucle” et un consensus clair parmi les parties prenantes concernées selon lequel les avantages du système l’emporteront largement sur ses impacts négatifs potentiels. Une approche consiste à définir une hiérarchie des niveaux de risque, avec un risque inacceptable au niveau le plus élevé et un risque minimal au niveau le plus bas.
  • La possession: Les aspects inhérents à la structure et au fonctionnement des systèmes d’IA générative ne sont pas encore suffisamment pris en compte dans la législation et la réglementation en matière de propriété intellectuelle (PI).
  • Contrôle des données personnelles : Les systèmes d’IA générative devraient permettre à une personne de refuser que ses données soient utilisées pour former un système ou faciliter sa génération d’informations.
  • Corrigabilité : Les fournisseurs de systèmes d’IA générative doivent créer et maintenir des référentiels publics où les erreurs commises par le système peuvent être notées et, éventuellement, des corrections apportées.

Principes antérieurs adaptés

  • Transparence: Toute application ou tout système qui utilise l’IA générative doit clairement divulguer qu’il le fait aux parties prenantes appropriées.
  • Auditabilité et contestabilité : Les fournisseurs de systèmes d’IA générative doivent veiller à ce que les modèles de système, les algorithmes, les données et les résultats puissent être enregistrés dans la mesure du possible (en tenant dûment compte de la confidentialité), afin qu’ils puissent être audités et/ou contestés dans les cas appropriés.
  • Limiter l’impact environnemental : Compte tenu de l’impact environnemental important des modèles d’IA générative, nous recommandons qu’un consensus sur les méthodologies soit développé pour mesurer, attribuer et réduire activement cet impact.
  • Sécurité et confidentialité accrues : Les systèmes d’IA générative sont sensibles à un large éventail de nouveaux risques de sécurité et de confidentialité, y compris de nouveaux vecteurs d’attaque et des fuites de données malveillantes, entre autres.

« Notre domaine doit faire preuve de prudence dans le développement de l’IA générative, car il s’agit d’un nouveau paradigme qui va bien au-delà de la technologie et des applications d’IA précédentes », a expliqué Ravi Jain, président du groupe de travail sur l’IA générative de l’ACM Technology Policy Council et auteur principal de les principes. “Que vous célébriez l’IA générative comme une merveilleuse avancée scientifique ou que vous la craigniez, tout le monde s’accorde à dire que nous devons développer cette technologie de manière responsable. En décrivant ces huit principes instrumentaux, nous avons essayé d’examiner un large éventail de domaines dans lesquels l’IA générative pourrait avoir un Il s’agit notamment d’aspects qui n’ont pas été autant couverts par les médias, notamment les considérations environnementales et l’idée de créer des référentiels publics où les erreurs d’un système peuvent être notées et corrigées.

“Ce sont des lignes directrices, mais nous devons également créer une communauté de scientifiques, de décideurs et de chefs de file de l’industrie qui travailleront ensemble dans l’intérêt public pour comprendre les limites et les risques de l’IA générative ainsi que ses avantages. La position de l’ACM en tant que plus grande association au monde pour les professionnels de l’informatique nous rend bien placés pour favoriser ce consensus et nous sommes impatients de travailler avec les décideurs politiques pour élaborer les réglementations par lesquelles l’IA générative doit être développée, déployée, mais également contrôlée », a ajouté James Hendler, professeur au Rensselaer Polytechnic Institute and Chair du Conseil de la politique technologique de l’ACM.

“Principles for the Development, Deployment, and Use of Generative AI Technologies” a été produit et adopté conjointement par le Comité américain de la politique technologique (USTPC) de l’ACM et le Comité européen de la politique technologique (Europe TPC).

Les principaux auteurs de ce document pour l’USTPC étaient Ravi Jain, Jeanna Matthews et Alejandro Saucedo. Des contributions importantes ont été apportées par Harish Arunachalam, Brian Dean, Advait Deshpande, Simson Garfinkel, Andrew Grosso, Jim Hendler, Lorraine Kisselburgh, Srivatsa Kundurthy, Marc Rotenberg, Stuart Shapiro et Ben Shneiderman. Ricardo Baeza-Yates, Michel Beaudouin-Lafon, Vint Cerf, Charalampos Chelmis, Paul DeMarinis, Nicholas Diakopoulos, Janet Haven, Ravi Iyer, Carlos E. Jimenez-Gomez, Mark Pastin, Neeti Pokhriyal, Jason Schmitt et Darryl Scriven.

[ad_2]

Loading

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*