OpenAI ajoute des outils open source pour aider les développeurs à garantir la sécurité des adolescents
💻 Code & Dev

OpenAI ajoute des outils open source pour aider les développeurs à garantir la sécurité des adolescents

TechCrunch IA
Amanda Silberling·3 min·0 vues
En bref
1OpenAI propose des outils open source pour aider les développeurs à créer des applications plus sûres pour les adolescents.
2Ces outils visent à renforcer la sécurité des jeunes utilisateurs en intégrant des politiques de sécurité.
3Cela permet aux développeurs de ne pas partir de zéro et d'adopter des pratiques éprouvées pour protéger les adolescents en ligne.
💡Pourquoi c'est importantCela pourrait transformer la manière dont les applications sont conçues, en plaçant la sécurité des jeunes au cœur du développement technologique.
📄
Article traduit en français

OpenAI ajoute des outils open source pour aider les développeurs à garantir la sécurité des adolescents

OpenAI a annoncé mardi le lancement d'un ensemble de prompts que les développeurs peuvent utiliser pour rendre leurs applications plus sûres pour les adolescents. Le laboratoire d'IA a précisé que cet ensemble de politiques de sécurité pour les adolescents peut être utilisé avec son modèle de sécurité à poids ouverts connu sous le nom de gpt-oss-safeguard.

Plutôt que de partir de zéro pour déterminer comment rendre l'IA plus sûre pour les adolescents, les développeurs peuvent utiliser ces prompts pour renforcer leurs créations. Ils abordent des problèmes tels que :

  • la violence graphique et le contenu sexuel
  • les idéaux et comportements corporels nuisibles
  • les activités et défis dangereux
  • les jeux de rôle romantiques ou violents
  • les biens et services soumis à des restrictions d'âge

Ces politiques de sécurité sont conçues sous forme de prompts, ce qui les rend facilement compatibles avec d'autres modèles en dehors de gpt-oss-safeguard, bien qu'elles soient probablement les plus efficaces au sein de l'écosystème d'OpenAI.

Pour rédiger ces prompts, OpenAI a collaboré avec des organismes de surveillance de la sécurité de l'IA, tels que Common Sense Media et everyone.ai.

« Ces politiques basées sur des prompts aident à établir un niveau de sécurité significatif dans l'écosystème, et comme elles sont publiées en open source, elles peuvent être adaptées et améliorées au fil du temps », a déclaré Robbie Torney, responsable de l'IA et des évaluations numériques chez Common Sense Media, dans un communiqué.

OpenAI a noté dans son blog que les développeurs, y compris les équipes expérimentées, ont souvent du mal à traduire les objectifs de sécurité en règles opérationnelles précises.

« Cela peut entraîner des lacunes dans la protection, une application incohérente ou un filtrage trop large », a écrit la société. « Des politiques claires et bien définies sont une base essentielle pour des systèmes de sécurité efficaces. »

OpenAI reconnaît que ces politiques ne constituent pas une solution aux défis complexes de la sécurité de l'IA. Cependant, elles s'appuient sur ses efforts précédents, y compris des mesures de sécurité au niveau des produits telles que les contrôles parentaux et la prédiction d'âge. L'année dernière, OpenAI a mis à jour ses directives pour ses grands modèles de langage — connues sous le nom de Model Spec — afin de traiter la manière dont ses modèles d'IA doivent se comporter avec des utilisateurs de moins de 18 ans.

Cependant, OpenAI n'a pas le meilleur bilan en matière de sécurité. La société fait face à plusieurs poursuites judiciaires déposées par les familles de personnes qui se sont suicidées après une utilisation excessive de ChatGPT. Ces relations dangereuses se forment souvent après que l'utilisateur a contourné les protections du chatbot, et aucune barrière de modèle n'est totalement impénétrable. Néanmoins, ces politiques représentent au moins un pas en avant, en particulier pour aider les développeurs indépendants.

Lire l'article original sur TechCrunch IA

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires