Anthropic connaît un mois mouvementé
💼 Business & Startups

Anthropic connaît un mois mouvementé

TechCrunch IA
Connie Loizos·3 min·0 vues
En bref
1Un employé a causé des problèmes chez Anthropic pour la deuxième fois cette semaine.
2Anthropic est un acteur majeur dans le domaine des modèles IA.
3La répétition des incidents soulève des questions sur la gestion interne et la sécurité des processus.
💡Pourquoi c'est importantLa confiance dans les entreprises d'IA est cruciale pour leur succès futur.
📄
Article traduit en français

Anthropic connaît un mois mouvementé

Anthropic a construit son identité publique autour de l'idée gagnante qu'elle est l'entreprise d'IA prudente. Elle publie des recherches détaillées sur les risques liés à l'IA, emploie certains des meilleurs chercheurs du domaine et a été très vocale sur les responsabilités qui accompagnent la création d'une technologie aussi puissante — si vocale, bien sûr, qu'elle est actuellement en conflit avec le Département de la Défense. Malheureusement, mardi, quelqu'un a oublié de cocher une case.

C'est, notons-le, la deuxième fois en une semaine. Quelques jours plus tôt, Fortune rapportait qu'Anthropic avait accidentellement rendu presque 3 000 fichiers internes accessibles au public, y compris un brouillon de message de blog décrivant un nouveau modèle puissant que l'entreprise n'avait pas encore annoncé.

Voici ce qui s'est passé mardi : lorsque Anthropic a publié la version 2.1.88 de son logiciel Claude Code, elle a accidentellement inclus un fichier qui exposait près de 2 000 fichiers de code source et plus de 512 000 lignes de code — essentiellement le plan architectural complet pour l'un de ses produits les plus importants. Un chercheur en sécurité nommé Chaofan Shou l'a remarqué presque immédiatement et en a parlé sur X. La déclaration d'Anthropic à plusieurs médias était nonchalante, comme cela arrive dans de tels cas : « Il s'agissait d'un problème d'emballage de version causé par une erreur humaine, et non d'une violation de sécurité. » (En interne, on peut imaginer que les choses étaient moins mesurées.)

Claude Code n'est pas un produit mineur. C'est un outil en ligne de commande qui permet aux développeurs d'utiliser l'IA d'Anthropic pour écrire et éditer du code, et il est devenu suffisamment redoutable pour déstabiliser ses concurrents. Selon le WSJ, OpenAI a interrompu son produit de génération vidéo Sora seulement six mois après son lancement public pour recentrer ses efforts sur les développeurs et les entreprises — en partie en réponse à l'élan croissant de Claude Code.

Ce qui a fuité n'était pas le modèle d'IA lui-même mais l'ossature logicielle qui l'entoure — les instructions qui indiquent au modèle comment se comporter, quels outils utiliser et où se situent ses limites. Les développeurs ont commencé à publier des analyses détaillées presque immédiatement, l'un d'eux décrivant le produit comme « une expérience développeur de qualité production, pas juste un wrapper autour d'une API. »

Que cela ait des conséquences durables est une question qui revient aux développeurs. Les concurrents pourraient trouver l'architecture instructive ; en même temps, le domaine évolue rapidement.

Quoi qu'il en soit, quelque part chez Anthropic, on peut imaginer qu'un ingénieur très talentueux s'est demandé le reste de la journée s'il avait toujours un emploi. On ne peut qu'espérer que ce n'est pas le même ingénieur, ou l'équipe d'ingénierie, que celle de plus tôt cette semaine.

Lire l'article original sur TechCrunch IA

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires