L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement
Une nouvelle étape contre les dérives de l'intelligence artificielle
Si l’intelligence artificielle s’impose dans de nombreux usages, ses dérives continuent d’inquiéter les institutions européennes. Parmi celles-ci, la création de contenus à caractère sexuel non-consentis à partir d’images réelles suscite une mobilisation politique croissante. À Bruxelles, les eurodéputés souhaitent désormais franchir un cap en encadrant plus strictement ces pratiques.
Une interdiction ciblée des outils de « nudification »
Comme le rapporte un communiqué de presse, le Parlement européen avance vers une interdiction des technologies capables de générer des deepfakes sexuels. Plus précisément, les commissions des libertés civiles et du marché intérieur ont adopté un amendement visant les systèmes dits de « nudification ».
Dans les faits, ces outils reposent sur l’intelligence artificielle pour créer ou manipuler des images intimes en s’appuyant sur des personnes réelles identifiables, sans leur consentement. Une pratique qui, selon plusieurs élus, a déjà causé des préjudices significatifs.
L’eurodéputé Michael McNamara défend une ligne ferme, dénonçant des applications qui génèrent « beaucoup de souffrances au bénéfice de quelques-uns ». De son côté, Kim van Sparrentak évoque une avancée notable, notamment pour la protection des femmes et des mineurs.
Le texte doit encore être soumis à l’ensemble des députés européens lors d’un vote en séance plénière prévu le 26 mars prochain. Si celui-ci est validé, des négociations avec les États membres seront alors nécessaires pour aboutir à une version définitive et applicable.
L’effet déclencheur de l’affaire Grok
Ce durcissement réglementaire s’inscrit dans un contexte marqué par plusieurs controverses récentes, l’une des plus marquantes concernant Grok, disponible sur le réseau social d’Elon Musk. L’outil avait temporairement permis de générer des images sexualisées à partir de photos réelles, y compris concernant des femmes et des enfants. Cette fonctionnalité a rapidement provoqué une vive réaction en Europe, poussant les autorités à ouvrir une enquête.
Sous la pression, xAI a ensuite restreint l’accès à certaines fonctionnalités et assuré bloquer la génération d’images à caractère sexuel, mais uniquement dans les juridictions où ces contenus sont illégaux.
Un premier pas en France et en Espagne ?
Parallèlement à cette affaire, les États membres de l’Union européenne ont d’ores et déjà validé une proposition franco-espagnole allant dans le même sens. Celle-ci vise à interdire les services d’IA capables de produire des images sexuelles non consenties, mais aussi des contenus pédopornographiques.
Cette convergence entre le Parlement et les États membres illustre ainsi une volonté commune d’encadrer plus strictement les usages sensibles de l’IA, à un moment où les capacités technologiques évoluent rapidement.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
