Brief IA

xAI d'Elon Musk fait face à un procès pour pornographie juvénile de la part de mineurs

🤖 Modèles & LLMvia TechCrunch IA·Tim Fernholz·

xAI d'Elon Musk fait face à un procès pour pornographie juvénile de la part de mineurs

xAI d'Elon Musk fait face à un procès pour pornographie juvénile de la part de mineurs

Résumé en français par Brief IA

• Trois plaignants cherchent à représenter toute personne ayant eu des images réelles d'eux en tant que mineurs altérées en contenu sexuel par Grok. • Les plaignants visent à établir une responsabilité pour l'utilisation abusive d'images d'enfants. • Ce procès soulève des questions cruciales sur la protection des mineurs dans le contexte des technologies d'IA et de la génération de contenu. 💡 Pourquoi c'est important : ce cas pourrait établir des précédents juridiques sur la responsabilité des entreprises d'IA face à l'exploitation d'images d'enfants.

📄 Article traduit en français

xAI d'Elon Musk fait face à un procès pour pornographie juvénile de la part de mineurs

La société d'Elon Musk, xAI, doit être tenue responsable d'avoir permis à ses modèles d'IA de produire des images sexuelles abusives de mineurs identifiables, ont soutenu trois plaignants anonymes dans un procès déposé lundi devant un tribunal fédéral de Californie.

Les trois plaignants souhaitent engager une action collective représentant toute personne dont les images réelles en tant que mineurs ont été modifiées en contenu sexuel par Grok. Ils allèguent que xAI n'a pas pris les précautions de base utilisées par d'autres laboratoires de pointe pour empêcher leurs modèles d'images de produire de la pornographie représentant de vraies personnes et des mineurs.

L'affaire, Jane Doe 1, Jane Doe 2, une mineure, et Jane Doe 3, une mineure contre x.AI Corp. et x.AI LLC, a été déposée au U.S. District Court of California Northern District.

D'autres générateurs d'images basés sur l'apprentissage profond utilisent diverses techniques pour prévenir la création de pornographie juvénile à partir de photographies normales. Le procès allègue que ces normes n'ont pas été adoptées par xAI.

Notamment, si un modèle permet la génération de contenu nu ou érotique à partir d'images réelles, il est pratiquement impossible d'empêcher la génération de contenu sexuel mettant en scène des enfants. La promotion publique par Musk de la capacité de Grok à produire des images sexuelles et à représenter de vraies personnes en tenues légères figure en bonne place dans le procès.

La société n'a pas répondu à une demande de commentaire de TechCrunch.

Une plaignante, Jane Doe 1, a vu des photos de son bal de promo et de son annuaire scolaire modifiées par Grok pour la représenter dénudée. Un informateur anonyme qui l'a contactée sur Instagram lui a dit que les photos circulaient en ligne et lui a envoyé un lien vers un serveur Discord contenant des images sexualisées d'elle et d'autres mineurs qu'elle reconnaissait de l'école.

Une deuxième plaignante, Jane Doe 2, a été informée par des enquêteurs criminels d'images altérées et sexualisées d'elle créées par une application mobile tierce qui utilise des modèles de Grok. Une troisième, Jane Doe 3, a également été notifiée par des enquêteurs criminels qui ont découvert une image pornographique altérée d'elle sur le téléphone d'un sujet qu'ils avaient appréhendé. Les avocats des plaignants affirment que, puisque l'utilisation par des tiers nécessite toujours le code et les serveurs de xAI, la société devrait être tenue responsable.

Tous les trois plaignants, dont deux sont encore mineurs, déclarent éprouver un stress extrême en raison de la circulation de ces images et de ce que cela pourrait signifier pour leur réputation et leur vie sociale. Ils demandent des sanctions civiles en vertu d'un ensemble de lois destinées à protéger les enfants exploités et à prévenir la négligence des entreprises.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.