Brief IA

Is Anthropic limiting the release of Mythos to protect the internet — or Anthropic?

🤖 Models & LLMvia TechCrunch IA·Tim Fernholz·

Is Anthropic limiting the release of Mythos to protect the internet — or Anthropic?

Is Anthropic limiting the release of Mythos to protect the internet — or Anthropic?
En bref
1Anthropic a restreint le lancement de son modèle Mythos en raison de sa capacité à détecter des failles de sécurité dans des logiciels utilisés mondialement.
2Mythos est considéré comme trop puissant pour être diffusé sans précautions.
3Cette décision soulève des questions sur la transparence et la responsabilité des laboratoires de recherche en IA.
💡Pourquoi c'est importantla gestion des risques en IA pourrait redéfinir la confiance des utilisateurs dans les technologies émergentes.
📄
Article traduit en français

Anthropic limite-t-il la sortie de Mythos pour protéger Internet — ou lui-même ?

Anthropic a déclaré cette semaine qu'il avait limité la sortie de son nouveau modèle, baptisé Mythos, car il est trop capable de détecter des failles de sécurité dans les logiciels utilisés par des millions d'utilisateurs à travers le monde.

Au lieu de lancer Mythos au grand public, le laboratoire de pointe le partagera avec un groupe de grandes entreprises et d'organisations qui gèrent des infrastructures en ligne critiques, allant d'Amazon Web Services à JPMorgan Chase.

OpenAI envisagerait également un plan similaire pour son prochain outil de cybersécurité. L'idée apparente est de permettre à ces grandes entreprises de devancer les acteurs malveillants qui pourraient exploiter des modèles de langage avancés pour pénétrer des logiciels sécurisés.

Cependant, le terme « e-word » dans la phrase précédente suggère qu'il pourrait y avoir plus derrière cette stratégie de sortie que la cybersécurité — ou la mise en avant des capacités du modèle.

Dan Lahav, le PDG du laboratoire de cybersécurité IA Irregular, a déclaré à TechCrunch en mars, avant la sortie de Mythos, que bien que la découverte de vulnérabilités par des outils d'IA soit importante, la valeur spécifique de toute faiblesse pour un attaquant dépend de nombreux facteurs, y compris de la manière dont elles peuvent être utilisées en combinaison.

« La question que je me pose toujours », a déclaré Lahav, « est de savoir s'ils ont trouvé quelque chose d'exploitable de manière très significative, que ce soit individuellement ou dans le cadre d'une chaîne ? »

Anthropic affirme que Mythos est capable d'exploiter des vulnérabilités bien plus que son modèle précédent, Opus. Mais il n'est pas clair que Mythos soit réellement le modèle ultime en matière de cybersécurité. Aisle, une startup de cybersécurité IA, a déclaré qu'elle avait pu reproduire une grande partie de ce qu'Anthropic affirme que Mythos a accompli en utilisant des modèles plus petits et à poids ouverts. L'équipe d'Aisle soutient que ces résultats montrent qu'il n'existe pas de modèle d'apprentissage profond unique pour la cybersécurité, mais que cela dépend plutôt de la tâche à accomplir.

Étant donné qu'Opus était déjà considéré comme un changement de jeu pour la cybersécurité, il y a une autre raison pour laquelle les laboratoires de pointe pourraient vouloir limiter leurs sorties aux grandes organisations : cela crée un flywheel pour des contrats d'entreprise importants, tout en rendant plus difficile pour les concurrents de copier leurs modèles en utilisant la distillation, une technique qui exploite les modèles de pointe pour former de nouveaux LLM à moindre coût.

« C'est un camouflage marketing pour le fait que les modèles haut de gamme sont désormais régulés par des accords d'entreprise et ne sont plus disponibles pour les petits laboratoires à distiller », a suggéré David Crawshaw, ingénieur logiciel et PDG de la startup exe.dev, dans un post sur les réseaux sociaux. « D'ici à ce que vous et moi puissions utiliser Mythos, il y aura une nouvelle version haut de gamme qui sera uniquement pour les entreprises. Ce tapis roulant aide à maintenir l'argent des entreprises (qui représente la majorité des fonds) en reléguant les entreprises de distillation au second plan. »

Cette analyse s'accorde avec ce que nous observons dans l'écosystème de l'IA : une course entre les laboratoires de pointe développant les modèles les plus grands et les plus capables, et des entreprises comme Aisle qui s'appuient sur plusieurs modèles et voient les LLM open source, souvent en provenance de Chine et souvent prétendument développés par distillation, comme un moyen d'avantage économique.

Les laboratoires de pointe ont adopté une position plus stricte sur la distillation cette année, Anthropic révélant publiquement ce qu'il dit être des tentatives d'entreprises chinoises de copier ses modèles, et trois laboratoires de premier plan — Anthropic, Google et OpenAI — s'associant pour identifier les distillateurs et les bloquer, selon un rapport de Bloomberg. La distillation représente une menace pour le modèle économique des laboratoires de pointe car elle élimine les avantages conférés par l'utilisation de grandes quantités de capital pour se développer. Bloquer la distillation est donc déjà une démarche valable, mais l'approche de sortie sélective pour y parvenir donne également aux laboratoires un moyen de différencier leurs offres d'entreprise alors que cette catégorie devient la clé d'un déploiement rentable.

Que Mythos ou tout nouveau modèle menace réellement la sécurité d'Internet reste à voir, et un déploiement prudent de la technologie est une voie responsable à suivre.

Anthropic n'a pas répondu à nos questions concernant le lien éventuel entre cette décision et les préoccupations liées à la distillation au moment de la publication, mais l'entreprise pourrait avoir trouvé une approche astucieuse pour protéger Internet — et ses résultats financiers.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.