L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement
🤖 Modeles & LLM

L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement

Siècle Digital
Frédéric Olivieri·3 min·0 vues
En bref
1L'Union européenne projette d'interdire les outils d'IA générant des contenus sexuels non-consentis.
2Une mobilisation politique accrue à Bruxelles, avec des eurodéputés en tête de la démarche.
3Ce projet de réglementation vise à protéger les droits individuels et à encadrer les dérives de l'IA, établissant un cadre potentiel pour d'autres régulations en Europe.
💡Pourquoi c'est importantUne telle interdiction pourrait influencer la manière dont l'IA est régulée à l'échelle mondiale, en mettant l'accent sur la protection des droits individuels.
📄
Article traduit en français

L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement

Une nouvelle étape contre les dérives de l'intelligence artificielle

Si l’intelligence artificielle s’impose dans de nombreux usages, ses dérives continuent d’inquiéter les institutions européennes. Parmi celles-ci, la création de contenus à caractère sexuel non-consentis à partir d’images réelles suscite une mobilisation politique croissante. À Bruxelles, les eurodéputés souhaitent désormais franchir un cap en encadrant plus strictement ces pratiques.

Une interdiction ciblée des outils de « nudification »

Comme le rapporte un communiqué de presse, le Parlement européen avance vers une interdiction des technologies capables de générer des deepfakes sexuels. Plus précisément, les commissions des libertés civiles et du marché intérieur ont adopté un amendement visant les systèmes dits de « nudification ».

Dans les faits, ces outils reposent sur l’intelligence artificielle pour créer ou manipuler des images intimes en s’appuyant sur des personnes réelles identifiables, sans leur consentement. Une pratique qui, selon plusieurs élus, a déjà causé des préjudices significatifs.

L’eurodéputé Michael McNamara défend une ligne ferme, dénonçant des applications qui génèrent « beaucoup de souffrances au bénéfice de quelques-uns ». De son côté, Kim van Sparrentak évoque une avancée notable, notamment pour la protection des femmes et des mineurs.

Le texte doit encore être soumis à l’ensemble des députés européens lors d’un vote en séance plénière prévu le 26 mars prochain. Si celui-ci est validé, des négociations avec les États membres seront alors nécessaires pour aboutir à une version définitive et applicable.

L’effet déclencheur de l’affaire Grok

Ce durcissement réglementaire s’inscrit dans un contexte marqué par plusieurs controverses récentes, l’une des plus marquantes concernant Grok, disponible sur le réseau social d’Elon Musk. L’outil avait temporairement permis de générer des images sexualisées à partir de photos réelles, y compris concernant des femmes et des enfants. Cette fonctionnalité a rapidement provoqué une vive réaction en Europe, poussant les autorités à ouvrir une enquête.

Sous la pression, xAI a ensuite restreint l’accès à certaines fonctionnalités et assuré bloquer la génération d’images à caractère sexuel, mais uniquement dans les juridictions où ces contenus sont illégaux.

Un premier pas en France et en Espagne ?

Parallèlement à cette affaire, les États membres de l’Union européenne ont d’ores et déjà validé une proposition franco-espagnole allant dans le même sens. Celle-ci vise à interdire les services d’IA capables de produire des images sexuelles non consenties, mais aussi des contenus pédopornographiques.

Cette convergence entre le Parlement et les États membres illustre ainsi une volonté commune d’encadrer plus strictement les usages sensibles de l’IA, à un moment où les capacités technologiques évoluent rapidement.

Lire l'article original sur Siècle Digital

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires