Roblox poursuivi pour avoir prétendument permis l’exploitation sexuelle et financière d’une jeune fille


Pendant la pandémie, la plate-forme de jeu créée par les utilisateurs et si populaire auprès des enfants, Roblox, a élargi sa base d’utilisateurs et a décidé de devenir publique. En deux ans, sa valeur est passée de moins de 4 milliards de dollars à 45 milliards de dollars. Maintenant, il est poursuivi – avec Discord, Snap et Meta – par un parent qui allègue que pendant la pandémie, Roblox est devenu la passerelle permettant à plusieurs utilisateurs adultes de s’attaquer à une fille de 10 ans.

Le procès intenté mercredi devant la Cour supérieure de San Francisco montre comment les prédateurs sexuels peuvent exploiter plusieurs plateformes sociales à la fois pour brouiller les pistes tout en exploitant financièrement et sexuellement des enfants. Il allègue qu’en 2020, Roblox a mis en relation une jeune fille appelée SU avec des hommes adultes qui l’ont maltraitée pendant des mois, la manipulant pour qu’elle envoie des paiements en utilisant la devise Roblox appelée Robux et l’incitant à partager des photos explicites sur Discord et Snapchat jusqu’en 2021. En tant que fille est devenu de plus en plus anxieux et déprimé, le procès allègue qu’Instagram a commencé à recommander des contenus d’automutilation et, finalement, SU a dû se retirer de l’école après plusieurs tentatives de suicide.

Comme de nombreuses poursuites similaires en responsabilité du fait des produits auxquelles les plateformes sociales ont récemment été confrontées pour avoir prétendument créé une dépendance aux enfants et causé des dommages, cette nouvelle poursuite vise à tenir les plateformes responsables de continuer à promouvoir l’utilisation de fonctionnalités dont les entreprises technologiques savent qu’elles peuvent présenter de graves risques pour les utilisateurs mineurs. Et le tuteur de SU, connu sous le nom de CU dans le procès, veut que les plateformes paient pour profiter de systèmes qui auraient engagé de manière imprudente des enfants utilisateurs.

Le procès indique que les plates-formes négligent d’empêcher l’accès des prédateurs aux mineurs, suggérant des solutions simples et bon marché que les plates-formes négligent car elles limiteraient potentiellement les profits. Ces suggestions incluent avertir les mineurs d’un engagement prédateur potentiel, vérifier l’âge des titulaires de compte, empêcher les utilisateurs adultes d’envoyer des messages aux utilisateurs mineurs, interdire les utilisateurs adultes qui envoient des messages aux mineurs ou empêcher les mineurs de contourner la surveillance parentale en limitant l’accès des mineurs à certaines fonctionnalités et capacités pour créer comptes en double.

Un porte-parole de Roblox a déclaré à Ars: “Bien que nous ne commentions pas les litiges en cours, Roblox a une culture axée sur la sécurité et travaille sans relâche pour maintenir une plate-forme sûre et civile pour tous.” Roblox dit également qu’il a une politique de tolérance zéro pour les utilisateurs “mettent en danger ou sexualisent les enfants de quelque manière que ce soit” et prennent “des mesures rapides contre toute personne qui agit en violation de nos normes communautaires”.

Discord a déclaré à Ars qu’il scannait toutes les images de sa plate-forme pour détecter les contenus pédopornographiques et, faisant écho à Roblox, a déclaré qu’il appliquait une politique de tolérance zéro et prenait des mesures immédiates lorsqu’il prenait conscience de la mise en danger ou de l’exploitation sexuelle d’enfants. “Cela comprend l’enquête proactive et l’interdiction des utilisateurs, la fermeture des serveurs et la réalisation d’efforts ciblés pour détecter et désactiver les comptes qui enfreignent nos conditions d’utilisation et nos directives communautaires.”

Snap n’a pas immédiatement fourni de commentaire à Ars.

Meta a déclaré à Ars qu’il ne pouvait pas commenter les litiges en cours, mais a déclaré que “ses plus sincères condoléances vont à toute personne touchée par ces problèmes difficiles et complexes”.

Meta a sans doute fait l’objet du plus grand nombre de critiques sur cette question, depuis que la lanceuse d’alerte Frances Haugen a déclaré au Sénat américain comment Facebook avait sciemment fait du mal aux jeunes utilisateurs. Un porte-parole de Meta a déclaré à Ars qu’il avait mis en œuvre des changements sur Instagram qui sont similaires, bien qu’apparemment plus faibles, aux changements recherchés par le procès.

“Les adolescents ont automatiquement leurs comptes privés lorsqu’ils rejoignent Instagram, les adultes ne peuvent pas envoyer de messages aux adolescents qui ne les suivent pas, nous ne montrons pas les comptes appartenant aux adolescents à certains adultes dans les endroits où nous suggérons du contenu, et nous avons des contrôles conçu pour limiter les types de contenu que les adolescents voient », a déclaré un porte-parole de Meta à Ars.

À la suite des expériences de SU sur Roblox, Discord, Snapchat et Instagram, la tutrice de la jeune fille, CU, a depuis dû quitter son “emploi de rêve” avec le gouvernement, sacrifiant des avantages et une pension, pour répondre aux besoins de soins accrus de SU. Jusqu’à présent, CU déclare dans le procès qu’elle s’est endettée de 10 000 $ auprès des co-payeurs de soins de santé et que SU continue d’avoir besoin de soins pour des problèmes de santé en cours.

Le procès demande des dommages-intérêts aux plateformes sociales pour aider à récupérer les coûts des soins médicaux de SU, ainsi que des dommages-intérêts pour les soins futurs de SU, la perte de revenus et la capacité de gain future de CU, des dommages-intérêts punitifs, et plus encore, à déterminer, ils ont exigé, par un jury.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*