Pour lutter contre l’explosion des abus liés à l’IA, OpenAI dévoile un plan inédit
OpenAI vient de publier un protocole technique pour protéger les mineurs et mobilise des outils de détection contre les contenus pédopornographiques générés par ses modèles. Sam Altman s'engage à fournir des ressources gratuites aux organisations de protection de l'enfance pour identifier les images suspectes sur le web. Le plan Introducing Child Safety Blueprint prépare des classificateurs capables de bloquer les requêtes malveillantes avant la création du contenu.
En un an, le National Center for Missing & Exploited Children (NCMEC) a enregistré une hausse de 1 325 % des signalements liés à la génération d'images par IA, avec 67 000 rapports en 2024 contre 4 700 l'année précédente. Cette explosion a fait sortir OpenAI de sa réserve habituelle. L'entreprise propose une stratégie globale pour l'industrie technologique. Au lieu de restreindre ses actions à ses propres serveurs, la firme surveille l'usage de ses modèles chez les développeurs externes. Cette offensive se fait main dans la main avec le NCMEC pour transmettre les preuves aux forces de l'ordre afin d'accélérer les signalements aux autorités judiciaires.
Une architecture logicielle verrouillée dès la conception
L'organisation modifie les règles profondes de ses modèles pour empêcher la production de représentations réalistes de mineurs dans des contextes dangereux. Dans le billet de blog officiel, Introducing Child Safety Blueprint, Anna Makanju, responsable des affaires mondiales, précise que ses ingénieurs préparent des classificateurs capables de bloquer les requêtes malveillantes avant la création du contenu. Ces outils analysent l'intention de l'utilisateur, car les prédateurs emploient souvent des mots codés pour contourner la sécurité. Les plateformes utilisant l'interface de programmation reçoivent alors une notification automatique lors d'une tentative de violation des règles.
Le document Child Protection Blueprint prévoit l'ajout de tatouages numériques invisibles dans chaque image issue de DALL-E 3. Grâce à ces marques, les enquêteurs peuvent retrouver l'origine exacte des fichiers sur Internet. La surveillance s'appuie sur une gestion stricte des accès, avec une exclusion définitive dès la première dérive grave. En travaillant avec l'Internet Watch Foundation, la firme valide l'efficacité de ces systèmes de blocage.
Un nettoyage radical des bases de données
Le plan prévoit également le retrait des images sensibles dans les futurs jeux de données pour identifier les contenus abusifs au sein des applications tierces. Sam Altman investit 5 millions de dollars pour aider le NCMEC à renforcer ses capacités techniques de détection. Cette aide financière soutient la modernisation des outils de signalement, car les associations peinent à suivre la cadence des nouvelles créations numériques. OpenAI automatise désormais le transfert des rapports vers la CyberTipline pour réduire le délai entre la détection et l'enquête policière.
En retirant manuellement des millions de clichés des bases d'apprentissage, les ingénieurs forcent l'intelligence artificielle à ignorer totalement les schémas criminels. Cette stratégie garantit des fondations saines pour les versions futures des outils de génération de texte ou de vidéos. Ce tri demande des effectifs humains importants, mais la société mobilise des experts en cybersécurité pour valider chaque étape.
OpenAI souhaite désormais l'adoption de ces standards par tous les acteurs du secteur technologique. En partageant ses classificateurs avec des partenaires externes, l'entreprise espère créer un bouclier commun contre la prolifération des images illicites.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.