OpenAI, Advocacy Groups and State Officials Want Tougher AI Rules to Protect Kids

OpenAI, groupes de défense et responsables d'État réclament des règles plus strictes sur l'IA pour protéger les enfants
OpenAI a publié mercredi un nouveau plan politique sur la manière de traiter l'une des questions les plus importantes et les plus conséquentes de l'ère de l'IA : la protection de ses utilisateurs les plus jeunes. Comme chaque entreprise d'IA cherchant à éviter les poursuites judiciaires, OpenAI dispose de garde-fous pour empêcher que son IA ne soit utilisée à des fins illégales ou nuisibles. Cependant, comme pour toute entreprise technologique, il est facile de contourner ces règles. Cela peut avoir des conséquences dévastatrices, en particulier pour les enfants et les adolescents, comme l'a montré le procès d'une famille de Floride contre OpenAI, qui allègue que leur fils de 17 ans a utilisé ChatGPT comme "coach de suicide".
Le plan d'OpenAI se concentre sur le renforcement des lois existantes et des mesures de sécurité techniques pour suivre les capacités de l'IA générative. Ce cadre a été élaboré en collaboration avec les groupes de défense de la sécurité des enfants Thorn et le National Center for Missing and Exploited Children, ainsi qu'avec le groupe de travail sur l'IA de l'Attorney General Alliance, dirigé par le procureur général de Caroline du Nord, Jeff Jackson, et le procureur général de l'Utah, Derek Brown.
Ce plan comprend une série de recommandations, y compris des garde-fous déjà mis en œuvre par OpenAI et d'autres en cours de développement, a déclaré l'entreprise à CNET. La feuille de route est vaste, appelant à une coordination entre les entreprises technologiques, les gouvernements d'État et fédéraux, les forces de l'ordre et les groupes de défense. Bien que ce type de coordination puisse augmenter les chances de succès, la régulation des modèles d'IA s'est révélée être un défi constant, et la mise en œuvre d'une politique efficace n'est en aucun cas garantie.
La sécurité des enfants en ligne, y compris lors de l'utilisation de l'IA, est un sujet de débat particulièrement intense dans le monde technologique. Ce débat a été ravivé à la suite de deux affaires judiciaires marquantes dans lesquelles Meta et Google ont été jugés négligents pour ne pas avoir protégé les jeunes utilisateurs. Dans ce contexte, les entreprises d'IA subissent une pression accrue pour exposer leurs plans visant à garantir la sécurité des utilisateurs et à éviter les erreurs du passé.
Des lois plus strictes et des garde-fous techniques
L'un des principaux problèmes abordés par le plan concerne le matériel d'abus sexuel d'enfants (CSAM). Le CSAM existait avant l'IA, mais l'IA générative a amplifié le travail des acteurs malveillants. Cela est devenu particulièrement évident lorsque des utilisateurs de Grok, l'IA de xAI, ont créé environ 3 millions d'images sexuelles générées par IA en 11 jours, dont 23 000 incluaient des images d'enfants. La tendance des deepfakes a été étendue et a suscité une grande indignation, entraînant des enquêtes sur xAI d'Elon Musk et un procès intenté par trois adolescentes victimes de ces images sexuelles non consensuelles générées par IA. Grok a supprimé sa capacité d'édition d'images sur X (anciennement Twitter), mais son "mode épicé" est toujours disponible via le site web autonome.
OpenAI et ses collaborateurs recommandent des mises à jour des lois existantes régissant la création et le partage de deepfakes et de CSAM. Jusqu'à présent, 45 États ont criminalisé le CSAM créé par IA et par ordinateur, selon un rapport de 2025. Le nouveau plan appelle à l'adoption de lois dans les 50 États et le District de Columbia. Il appelle également à clarifier les règles de responsabilité pour garantir que les forces de l'ordre puissent poursuivre ceux qui tentent de créer du CSAM, même si ces tentatives sont bloquées par l'entreprise d'IA.
La plupart des entreprises d'IA disposent de mesures de sécurité pour empêcher la création de contenu illégal ou abusif, mais elles ne sont pas parfaites. Le plan évoque également l'amélioration des garde-fous techniques et le développement de nouveaux outils pour détecter le contenu généré par IA, ce qui constitue un autre défi majeur : les modèles d'IA peuvent créer des images indiscernables de la réalité, rendant la détection par IA extrêmement difficile.
Il appelle également à des "canaux de signalement plus efficaces qui soutiennent une action plus rapide du National Center for Missing and Exploited Children." Malgré la généralisation de l'IA dans la technologie quotidienne, la législation entourant cette nouvelle technologie a pris du retard, créant un problème de synchronisation. L'une des rares lois majeures spécifiques à l'IA est le Take It Down Act, signé par le président Trump en 2025, qui interdit le partage d'images intimes non consensuelles, y compris les deepfakes générés par IA. Cette loi a donné aux plateformes de médias sociaux jusqu'en mai 2026 pour mettre en place des processus permettant à leurs utilisateurs de demander la suppression de ces images.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.