⚡
En bref1OpenAI avait qualifié son modèle GPT-2 de 'trop dangereux à publier' il y a sept ans.
2Anthropic suit le même chemin avec Claude Mythos Preview, révélant des milliers de vulnérabilités.
3Cette situation soulève des questions sur la responsabilité et la sécurité des modèles d'IA avancés.
💡Pourquoi c'est important — la gestion des risques liés à l'IA est cruciale pour l'avenir de la technologie et de la sécurité numérique.
📄
Article traduit en françaisDe GPT-2 à Claude Mythos : le retour des modèles d'IA jugés 'trop dangereux à publier'
Il y a sept ans, OpenAI a déclaré que son modèle de langage GPT-2 était "trop dangereux à publier". L'industrie a haussé les épaules. Aujourd'hui, Anthropic répète cette démarche avec Claude Mythos Preview - mais cette fois, il existe de véritables preuves : des milliers de vulnérabilités dans les systèmes d'exploitation et les navigateurs, découvertes par une IA que peu d'humains pourraient examiner.
L'article "De GPT-2 à Claude Mythos : le retour des modèles d'IA jugés 'trop dangereux à publier'" est apparu en premier sur The Decoder.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
Commentaires
