Brief IA

OpenAI Japan announces Japan Teen Safety Blueprint to put teen safety first

🤖 Models & LLMvia OpenAI Blog·

OpenAI Japan announces Japan Teen Safety Blueprint to put teen safety first

OpenAI Japan announces Japan Teen Safety Blueprint to put teen safety first
En bref
1OpenAI Japon présente le Plan de Sécurité des Adolescents, renforçant les protections d'âge et les contrôles parentaux pour les utilisateurs de l'IA générative.
2Ce plan vise à améliorer la sécurité des adolescents en ligne face aux risques associés à l'IA.
3L'initiative s'inscrit dans un contexte où la protection des jeunes en ligne devient cruciale, surtout avec la montée de l'IA.
💡Pourquoi c'est importantcette démarche pourrait influencer la réglementation mondiale sur l'utilisation de l'IA pour les jeunes.
📄
Article traduit en français

OpenAI Japon annonce le Plan de Sécurité des Adolescents pour prioriser la sécurité des jeunes

OpenAI Japon a annoncé le Plan de Sécurité des Adolescents, un nouveau cadre visant à aider les adolescents à utiliser l'IA générative de manière sûre et confiante. Au Japon, où un nombre croissant d'adolescents utilise déjà l'IA générative pour l'apprentissage, la créativité et les tâches quotidiennes, cette initiative est particulièrement importante. Alors que la première génération grandit aux côtés de l'IA, il est crucial de s'assurer que ces technologies sont conçues dès le départ en tenant compte de leur sécurité et de leur bien-être.

L'IA générative soutient déjà les individus dans une large gamme d'activités allant de l'apprentissage et de l'expression créative aux tâches quotidiennes qui aident à s'épanouir à l'école, au travail et dans la vie personnelle. À un niveau plus large, elle a également le potentiel d'accélérer la découverte scientifique et d'aider à résoudre des défis complexes auxquels la société est confrontée.

Cependant, comme toute technologie puissante, l'IA introduit de nouveaux risques, en particulier pour les utilisateurs plus jeunes, notamment l'exposition à la désinformation, à du contenu inapproprié et à un stress psychologique. Notre approche est guidée par un principe clair : pour les adolescents, la sécurité passe d'abord, même si cela nécessite des compromis en matière de commodité, de confidentialité ou de liberté d'utilisation.

Principaux piliers du Plan de Sécurité des Adolescents au Japon

  • Protections avancées adaptées à l'âge sur la plateforme
    OpenAI appliquera une estimation d'âge basée sur la confidentialité et le risque pour mieux distinguer les adolescents des adultes et fournir des protections appropriées pour chaque groupe. Des processus d'appel seront disponibles lorsque les utilisateurs estiment que les déterminations d'âge sont incorrectes.

  • Politiques de sécurité renforcées pour les utilisateurs de moins de 18 ans
    OpenAI renforcera les protections pour s'assurer que l'IA ne dépeint ni n'encourage l'automutilation ou le suicide, ne génère pas de contenu sexuel ou violent explicite, n'encourage pas des comportements dangereux et ne renforce pas des images corporelles nuisibles. Les réponses seront conçues pour être appropriées au stade de développement des utilisateurs plus jeunes. Nous veillons également à ce que l'IA n'aide pas les mineurs à dissimuler des comportements à risque, des symptômes ou des préoccupations de santé à leurs parents ou tuteurs de confiance.

  • Contrôles parentaux élargis
    Des outils tels que le lien de compte, les contrôles de confidentialité et de paramètres, la gestion du temps d'utilisation et des alertes lorsque cela est nécessaire aideront les familles à adapter les protections en fonction de leurs circonstances individuelles.

  • Conception centrée sur le bien-être basée sur la recherche
    En collaboration avec des cliniciens, des chercheurs, des éducateurs et des experts en sécurité infantile, OpenAI continuera d'améliorer des fonctionnalités telles que les rappels de pause et les voies vers un soutien dans le monde réel, tout en avançant dans la recherche sur l'impact de l'IA sur la santé mentale et le développement des adolescents.

  • Protections existantes
    Ces nouveaux efforts s'appuient sur des protections déjà en place dans ChatGPT, notamment :

    • Rappels intégrés qui encouragent des pauses lors d'une utilisation prolongée
    • Systèmes de sécurité qui détectent les signaux potentiels d'automutilation et orientent les utilisateurs vers des ressources réelles
    • Systèmes de sécurité multicouches et surveillance des abus
    • Prévention de premier plan de la génération de matériel d'exploitation sexuelle infantile par l'IA

Collaboration avec la société japonaise

Nous soutenons l'approche du Japon qui vise à équilibrer des protections solides pour les mineurs avec un accès responsable à la technologie. Nous continuerons à dialoguer de manière transparente avec les parents, les éducateurs, les chercheurs, les décideurs et les communautés locales pour améliorer continuellement nos efforts. Nous croyons également que protéger les adolescents à l'ère de l'IA est une responsabilité partagée et que ces types de protections devraient devenir une norme dans l'industrie.

"Protéger la sécurité d'une génération grandissant avec l'IA est une responsabilité partagée par la société, y compris les entreprises, les gouvernements, les éducateurs et les familles. OpenAI s'engage à travailler en étroite collaboration avec les parties prenantes au Japon pour créer un environnement où les jeunes utilisateurs peuvent apprendre, créer et développer leur potentiel en toute confiance." — Kazuya Okubo, Responsable des Politiques et Partenariats, OpenAI Japon

OpenAI continuera d'avancer ces efforts dans le cadre de son engagement plus large envers une IA sûre et responsable.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.