La menace de Deepfakes contre les élections américaines de 2020 n’est pas ce que vous pensez

Les deepfakes sont effrayants. Mais la bonne nouvelle pour les élections américaines est que les experts conviennent qu’il est peu probable qu’un candidat deepfake fausse le vote de 2020.

La mauvaise nouvelle: la simple existence de deepfakes suffit à perturber l’élection, même si un deepfake d’un candidat spécifique ne fait jamais surface.

L’un des premiers scénarios cauchemardesques que les gens imaginent lorsqu’ils découvrent cette nouvelle forme d’intelligence artificielle est une vidéo d’un réalisme troublant d’un candidat, par exemple, avouant un crime brûlant qui ne s’est jamais produit. Mais ce n’est pas ce que les experts craignent le plus.

«Si vous me demandiez quel est le principal risque de l’élection de 2020, je dirais que ce n’est pas des deepfakes», a déclaré Kathryn Harrison, fondatrice et PDG de DeepTrust Alliance, une coalition qui lutte contre les deepfakes et d’autres types de désinformation numérique. “Ce sera en fait une véritable vidéo qui apparaîtra fin octobre que nous ne pourrons pas prouver [whether] c’est vrai ou faux. ”

C’est la menace la plus grande et la plus sournoise. C’est ce qu’on appelle le dividende du menteur. Le terme, populaire dans les cercles de recherche deepfake, signifie que la simple existence de deepfakes donne plus de crédibilité aux dénégations. Essentiellement, les deepfakes permettent aux candidats enregistrés sur bande de convaincre les électeurs de leur innocence – même s’ils sont coupables – parce que les gens ont appris qu’ils ne pouvaient plus en croire leurs yeux.

Et si quelqu’un de rusé veut vraiment qu’un deepfake perturbe notre démocratie, l’attaque ne sera probablement pas contre l’un des candidats. Ce serait une agression contre votre foi dans l’élection elle-même: une imitation profonde d’un personnage de confiance avertissant que les sites de vote dans, par exemple, les quartiers noirs ne seront pas sûrs le jour du scrutin, ou que les machines à voter changent de voix d’un candidat à un autre.

Les médias manipulés ne sont pas nouveaux. Les gens traitent les images fixes depuis que la photographie a été inventée, et des programmes comme Photoshop en ont fait un jeu d’enfant. Mais les algorithmes deepfake sont comme Photoshop sur les stéroïdes. Falsifications vidéo sophistiquées créées par l’intelligence artificielle, elles peuvent donner l’impression que les gens font ou disent des choses qu’ils n’ont jamais faites.

Il y a de fortes chances que vous ayez déjà vu un deepfake inoffensif. Des millions de personnes ont vu l’acteur Jordan Peele transformer Barack Obama en marionnette. Des millions d’autres ont vu des échanges de visages de célébrités loufoques, comme l’acteur Nicolas Cage dépassant des moments emblématiques du film. Le parti démocrate a même enfoncé son propre président pour marteler le problème des deepfakes à l’approche des élections.

Ce PSA démocratique s’inscrit parfaitement dans la première ligne de défense contre les deepfakes, qui consiste à éduquer les gens à leur sujet, a déclaré Bobby Chesney, professeur de droit à l’Université du Texas qui a inventé le terme Liar’s Dividend dans un article universitaire l’année dernière. Mais le côté sombre de l’éducation des gens est que le dividende du menteur ne fait que devenir plus puissant. Chaque nouvelle personne qui apprend les deepfakes peut potentiellement être une autre personne persuadée qu’une vidéo légitime n’est pas réelle.

Et c’est à l’intersection où se trouve l’électorat américain.

Le cri des fausses nouvelles devient le cri des fausses nouvelles, a déclaré Chesney. “Nous verrons les gens essayer d’obtenir … plus de crédibilité pour leurs dénégations en faisant référence au fait: ‘N’as-tu pas entendu? Tu ne peux plus faire confiance à tes yeux.'”

La raison pour laquelle les deepfakes sont un phénomène si nouveau, et la raison pour laquelle ils sont si efficaces pour tromper l’œil humain, découle du type d’intelligence artificielle qui les crée. Cette technologie est connue sous le nom de GAN, abréviation de réseaux antagonistes génératifs. Alors que l’intelligence artificielle existe depuis des décennies, les GAN ont été développés il y a seulement six ans environ.

Pour comprendre les GAN, imaginez un artiste et un critique d’art enfermés dans des pièces côte à côte. L’artiste crée un tableau à partir de zéro et le glisse dans la salle du critique mélangé à l’intérieur d’une pile de chefs-d’œuvre. Dans cette programmation, le critique doit choisir celui qui a été peint par son voisin, et l’artiste découvre si sa peinture a trompé le critique. Imaginez-les maintenant répéter cet échange encore et encore à grande vitesse, dans le but de produire finalement un tableau que même un conservateur du Louvre accrocherait au mur. C’est le concept de base des GAN.

Les chercheurs ont créé des deepfakes qui greffent les visages des candidats sur la tête des imitateurs, afin de tester un système pour les démystifier.

Shruti Agarwal / Hany Farid / Yuming Gu / Mingming He / Koki Nagano / Hao Li

Dans ce type d’apprentissage automatique en profondeur, l’artiste est appelé un générateur, le critique est appelé un discriminateur, et les deux sont des réseaux de neurones – des modèles d’IA inspirés par le fonctionnement du cerveau. Le générateur crée des échantillons à partir de zéro, et le discriminateur regarde les échantillons du générateur mélangés avec des sélections de la chose réelle. Le discriminateur juge quels échantillons sont réels ou faux, puis renvoie cette rétroaction au générateur. Le générateur utilise ces conseils pour améliorer ses prochains échantillons, encore et encore.

Ainsi, quel que soit le type de média, les GAN sont des systèmes conçus pour devenir de mieux en mieux pour vous tromper. Les GAN peuvent créer des photos, des voix, des vidéos – tout type de média. Le terme deepfake est le plus souvent utilisé avec les vidéos, mais deepfakes peut faire référence à tout média dit “synthétique” produit par le deep learning.

C’est ce qui rend les deepfakes difficiles à identifier à l’œil nu.

“Si c’est un vrai deepfake, alors l’étrange vallée ne vous sauvera pas”, a déclaré Chesney, faisant référence au sentiment instinctif de méfiance face à un CG ou un humanoïde robotique qui ne semble pas tout à fait correct. “Si des siècles et des siècles de câblage sensoriel dans votre cerveau vous disent que c’est une vraie personne qui fait ou dit cela, c’est une profonde crédibilité.”

La naissance de deepfakes a donné naissance à de nouveaux termes: Cheapfakes. Faux peu profonds. Ce sont de nouvelles façons de décrire les anciennes méthodes de manipulation des médias. Un exemple populaire est la vidéo de la présidente de la Chambre des États-Unis, Nancy Pelosi, qui a été ralentie pour la faire paraître ivre. C’est une manipulation simple, facile et bon marché qui est également efficace, ce qui en fait une plus grande menace de désinformation.

“Se concentrer sur les deepfakes, c’est comme regarder à travers une paille”, a déclaré Ben Wizner, avocat à l’American Civil Liberties Union et l’avocat du lanceur d’alerte Edward Snowden, dans des commentaires lors d’une conférence juridique sur les deepfakes plus tôt cette année. Le plus gros problème, a-t-il dit, est que d’énormes majorités de personnes obtiennent des informations critiques via des plates-formes comme Google, Facebook et YouTube. Ces entreprises sont récompensées par des milliards de dollars publicitaires pour retenir votre attention. Mais vous aider à devenir un citoyen plus informé n’attire jamais autant votre attention que quelque chose d’incendiaire.

Le résultat est un système où les faux incendiaires prospèrent tandis que la vérité sobre en souffre.

Deepfakes peut exploiter ce système comme le font déjà cheapfakes. Mais les deepfakes sont plus coûteux et, comme ils sont plus difficiles à fabriquer, beaucoup moins de gens sont capables de créer les deepfakes très convaincants qui sont les plus difficiles à démystifier.

“Une grande partie de l’accent mis sur les deepfakes dans le contexte électoral”, a déclaré Sam Gregory, directeur de programme de l’organisation vidéo de défense des droits humains Witness. Une fixation «le deepfake parfait» d’un candidat politique ou d’un leader mondial est le genre de désinformation qui tend à attiser les audiences du Congrès. Mais cela ne tient pas compte des dommages significatifs qui se produisent déjà chez les gens ordinaires, à une échelle croissante, où même un deepfake de mauvaise qualité est encore profondément dommageable.

Le mois dernier, par exemple, un chercheur a exposé un logiciel gratuit et facile à utiliser deepfake bot fonctionnant sur l’application de messagerie Telegram qui a victime apparemment des millions de femmes en remplaçant sur les photos les parties vêtues de leur corps par de la nudité. Plus de 100 000 photos de femmes – manipulées pour donner l’impression que les victimes sont nues, sans leur consentement – avaient été publiées publiquement en ligne, a confirmé le chercheur. Un compteur non vérifié indiquant le nombre de photos de femmes que ce robot a manipulées a atteint 3,8 millions au jour du scrutin aux États-Unis.

Une fois que l’image d’une femme est simplement et facilement manipulée en imagerie sexuelle non consensuelle, quelle que soit la qualité de cette image, “le mal est fait”, a déclaré Gregory.

Ces photos sexuelles non consensuelles sont extrêmement faciles à réaliser pour quiconque – envoyez simplement un message au robot avec la photo à manipuler. Et avec suffisamment de connaissances technologiques et un ordinateur puissant, les gens peuvent utiliser des outils open-source deepfake pour faire des échanges de visages de célébrités et des synchronisations labiales avec Nicolas Cage.

Mais le type de deepfakes qui peut faire le plus de dégâts politiques nécessite de grands ensembles de données, des algorithmes très spécifiques et une puissance de calcul significative, a déclaré Harrison.

“Il ne manque certainement pas de personnes qui pourraient faire des vidéos comme ça, mais la plupart d’entre elles sont dans le milieu universitaire et la plupart d’entre elles n’essaient pas de saboter directement la démocratie électorale aux États-Unis”, a-t-elle déclaré.

Mais, ironiquement, le milieu universitaire alimente involontairement le dividende du menteur. La plupart de notre compréhension des deepfakes provient des universités et des instituts de recherche. Mais plus ces experts cherchent à protéger les gens en les éduquant, plus ils élargissent également le bassin de personnes vulnérables au refus d’un menteur d’une vidéo légitime, a déclaré Chesney, co-auteur du document Liar’s Dividend avec Danielle Keats Citron, professeur de droit à l’Université de Boston. .

«Tout le monde en a entendu parler maintenant», a-t-il déclaré. “Nous avons aidé à planter cette graine.”

Il existe deux remèdes possibles au dividende du menteur.

Les outils de détection de deepfake pourraient rattraper les progrès de la création de deepfake, donc la démystification des fausses vidéos est rapide et faisant autorité. Mais, spoiler: cela peut ne jamais arriver. Ou le public en général apprend à être sceptique chaque fois qu’une vidéo fait appel à ce qui les énerve le plus. Et cela peut ne jamais arriver non plus.

Les experts ne sont peut-être pas angoissés par le fait qu’un candidat deepfake perturbe le vote américain de 2020, mais d’autres types de deepfakes pourraient le faire, auxquels vous ne vous attendez peut-être pas.

“Je ne pense pas que quiconque verra un contenu vidéo, réel ou faux, et changera soudainement son vote le jour du scrutin”, a déclaré Clint Watts, chercheur distingué au Foreign Policy Research Institute qui a témoigné au Congrès l’année dernière à propos de deepfakes et sécurité nationale. “Essayer de convaincre les gens, Joe Biden touche trop les gens ou autre chose…. Je ne vois pas comment les opinions des gens peuvent vraiment être façonnées dans cet environnement médiatique avec ça.”

Ce qui l’inquiète le plus, ce sont les deepfakes qui portent atteinte à l’intégrité électorale – comme une personnalité faisant autorité rapportant des informations erronées sur la participation, les perturbations dans les bureaux de vote ou les machines à voter changeant votre bulletin de vote.

Autre inquiétude: Deepfakes pourrait déstabiliser le vote sur le sol américain en provoquant des ravages dans un avant-poste américain à l’étranger. Imaginez un faux qui déclenche une attaque comme celle contre la mission diplomatique américaine à Benghazi, en Libye, en 2012, qui est devenue un point d’éclair politique aux États-Unis. Des acteurs étatiques comme la Chine ou la Russie, par exemple, pourraient trouver une stratégie efficace dans des vidéos forgées qui mettent en danger les soldats américains ou les diplomates américains, en particulier dans les régions déchirées par la guerre ou les pays dirigés par un dictateur, où les populations ont déjà du mal à séparer la vérité de la propagande et rumeur.

“Si j’étais russe, je le ferais totalement”, a-t-il déclaré.

La Russie, cependant, est moins menaçante sur le front du deepfake. La Russie excelle plus dans l’art de la désinformation – comme la diffusion de fausses nouvelles – que dans la science de la deepfakery, a déclaré Watts. Mais c’est à la portée d’autres acteurs étatiques. La Chine a déjà complètement ancré les ancres de la télévision et les pays du Moyen-Orient ont les fonds nécessaires pour sous-traiter les campagnes de désinformation à des entreprises privées de haute technologie.

Quelle que soit la forme que prend Deepfake pour une élection, le moment est venu d’être en alerte maximale avant de voter.

“Si cela se produit 48 heures avant le jour du scrutin”, a déclaré Watts, “nous n’aurons peut-être pas la possibilité de le réparer.”

(Publié à l’origine le 4 mai à 5 h, heure du Pacifique.)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*