Des adolescentes poursuivent xAI, alléguant des dommages 'dévastateurs' causés par Grok AI et des images pornographiques d'enfants
Une nouvelle action en justice collective, déposée lundi par trois adolescentes et leurs tuteurs, allègue que la société xAI d'Elon Musk a créé et distribué du matériel d'abus sexuel d'enfants mettant en scène leurs visages et leurs ressemblances grâce à sa technologie Grok AI.
« Leurs vies ont été brisées par la perte dévastatrice de la vie privée, de la dignité et de la sécurité personnelle que la production et la diffusion de ce matériel d'abus sexuel d'enfants ont causées », indique le dépôt. « Le gain financier de xAI grâce à l'utilisation accrue de son produit de création d'images et de vidéos s'est fait à leurs dépens et à leur bien-être. »
De décembre à début janvier, Grok a permis à de nombreux utilisateurs d'IA et des réseaux sociaux X de créer des images intimes générées par IA sans consentement, parfois appelées deepfake porn. Des rapports estiment que les utilisateurs de Grok ont réalisé 4,4 millions d'images « dénudées » ou « nudifiées », représentant 41 % du nombre total d'images créées, sur une période de neuf jours.
X, xAI et ses divisions de sécurité et de protection de l'enfance n'ont pas immédiatement répondu à une demande de commentaire. La vague d'images « dénudées » a suscité l'indignation à travers le monde. La Commission européenne a rapidement lancé une enquête, tandis que la Malaisie et l'Indonésie ont interdit X sur leur territoire. Certains représentants du gouvernement américain ont appelé Apple et Google à retirer l'application de leurs magasins d'applications pour violation de leurs politiques, mais aucune enquête fédérale sur X ou xAI n'a été ouverte. Une action en justice collective similaire a été déposée par une femme de Caroline du Sud à la fin janvier.
La tendance déshumanisante a mis en lumière la capacité des outils modernes d'image IA à créer du contenu qui semble réaliste. La nouvelle plainte compare la génération « épicée » auto-proclamée de Grok à des « arts sombres » en raison de sa facilité à soumettre des enfants à « n'importe quelle pose, aussi malsaine, aussi fétichisée, aussi illégale soit-elle ».
« Pour le spectateur, la vidéo résultante semble entièrement réelle. Pour l'enfant, ses caractéristiques identifiables seront désormais à jamais attachées à une vidéo la représentant dans un abus sexuel », indique la plainte.
La plainte affirme que xAI est en faute car elle n'a pas mis en place des garde-fous conformes aux normes de l'industrie qui auraient empêché les abuseurs de créer ce contenu. Elle indique que xAI a accordé des licences d'utilisation de sa technologie à des entreprises tierces à l'étranger, qui ont vendu des abonnements permettant aux abuseurs de créer des images d'abus sexuel d'enfants mettant en scène les visages et les ressemblances des victimes. Les demandes ont transité par les serveurs de xAI, ce qui rend l'entreprise responsable, soutient la plainte.
L'action en justice a été déposée par trois Jane Does, des pseudonymes donnés aux adolescentes pour protéger leur identité. Jane Doe 1 a été alertée pour la première fois du fait que du matériel sexuel abusif généré par IA la concernant circulait sur le web par un message anonyme sur Instagram début décembre. Le dépôt indique qu'elle a été informée par l'utilisateur anonyme d'Instagram d'un serveur Discord où le matériel était partagé. Cela a conduit Jane Doe 1 et sa famille, et finalement les forces de l'ordre, à retrouver et arrêter un des auteurs.
Des enquêtes en cours ont permis aux familles de Jane Does 2 et 3 d'apprendre que les images de leurs enfants avaient été transformées avec la technologie de xAI en matériel abusif.