La nouvelle technologie de Microsoft scanne les chats en ligne pour attraper les prédateurs d’enfants

Bonne nouvelle pour les enfants et les parents: Microsoft a annoncé hier (9 janvier) qu’il allait traquer les prédateurs sexuels en ligne en utilisant l’intelligence artificielle pour analyser les chats à la recherche de soins potentiels pour les enfants. 

Le toilettage des enfants est une méthode utilisée pour attirer les victimes potentielles. Le prédateur parle simplement avec un enfant ciblé sur une longue période de temps pour que l’enfant se sente en sécurité et confortable. En cas de succès, le toilettage peut conduire à des abus sexuels en ligne, ce qui peut obliger les enfants à envoyer des vidéos sexuelles et à les rencontrer physiquement.

Comment fonctionne l’approche de Microsoft?

Le projet Artemis utilise l’intelligence artificielle pour surveiller en permanence les conversations avec les enfants afin de détecter les conversations qui pourraient être interprétées comme du toilettage.

La technique, dit Microsoft, «évalue et évalue les caractéristiques des conversations et attribue une cote de probabilité globale. 

“Cette note peut ensuite être utilisée comme un déterminant, fixé par des entreprises individuelles mettant en œuvre la technique, quant au moment où une conversation signalée doit être envoyée aux modérateurs humains pour examen.” 

Les modérateurs humains pourraient ensuite évaluer le contenu et identifier «les menaces imminentes de renvoi aux forces de l’ordre, ainsi que les cas d’exploitation sexuelle présumée d’enfants au  National Center for Missing and Exploited Children (NCMEC)». 

Selon Microsoft, le «NCMEC, avec  ECPAT International ,  INHOPE  et la  Internet Watch Foundation  (IWF), a fourni de précieux commentaires tout au long du processus de collaboration».

Problèmes de confidentialité

Bien sûr, ce facteur de modération humaine soulève un problème de confidentialité. Ce ne serait pas la première fois que des outils prétendument utilisés pour notre sécurité seraient mal utilisés. D’un autre côté, de telles questions sensibles ne peuvent pas toutes être laissées entre les mains d’un algorithme d’IA. 

Test depuis des années

Microsoft dit que le nouvel outil, appelé Project Artemis , a été développé au cours des 14 derniers mois en collaboration avec The Meet Group, Roblox, Kik et Thorn, à commencer par le Microsoft «360 Cross-Industry Hackathon» de novembre 2018 , un événement co- parrainé par la  WePROTECT Global Alliance  et la Child Dignity Alliance . 

Le géant du logiciel dit qu’il a utilisé avec succès les techniques sous-jacentes du projet Artemis dans Xbox Live «pendant des années». Il cherche maintenant à intégrer l’ensemble d’outils Project Artemis dans Skype, son système de chat multi-plateforme.

Encore mieux, Project Artemis est désormais disponible pour toute entreprise qui souhaite intégrer son logiciel. Les développeurs qui souhaitent acheter ces technologies sous licence peuvent contacter  Thorn à partir d’aujourd’hui, le 10 janvier.

«En aucun cas une panacée»

Microsoft a averti que le projet Artemis ne mettrait pas fin à la maltraitance des enfants en ligne. 

“Le projet Artemis est un pas en avant significatif, mais ce n’est en aucun cas une panacée”, a déclaré la société dans son annonce. «L’exploitation et les abus sexuels des enfants en ligne et la détection des soins aux enfants en ligne sont des problèmes importants. Mais nous ne sommes pas découragés par la complexité et la complexité de ces questions. » 

Plus tôt cette semaine, Apple a annoncé lors d’une table ronde sur la confidentialité au CES 2020 qu’il scanne les comptes d’utilisateurs à la recherche d’images connues de pornographie enfantine et de maltraitance à enfant. La responsable de la confidentialité d’Apple, Jane Horvath, a déclaré que si Apple trouve de telles images, les comptes d’utilisateurs sont automatiquement signalés, a rapporté le (London) Telegraph .

Apple n’a pas précisé exactement comment il procède, mais sa propre description du processus semble correspondre à une technologie développée conjointement par Microsoft et Dartmouth College appelée PhotoDNA , qui, selon The Telegraph, est également utilisée par Google, Facebook et Twitter. (PhotoDNA est également utilisé pour suivre le contenu lié au terrorisme .)

PhotoDNA compare de nouvelles images à une base de données d’images connues de maltraitance d’enfants qui ont déjà été détectées et signalées par les autorités. Il fonctionne également avec l’audio et la vidéo dans une certaine mesure. Mais PhotoDNA ne peut pas empêcher le toilettage et les abus futurs, comme le projet Artemis est conçu pour le faire.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*