L'outil de codage IA d'Anthropic fuité cloné plus de 8 000 fois sur GitHub malgré des suppressions massives
Suite à la fuite accidentelle du code source de son outil de codage IA, Anthropic a vu plus de 8 000 copies et adaptations des instructions brutes de Claude Code supprimées de GitHub via une demande de droits d'auteur, rapporte le Wall Street Journal. Un programmeur a déjà utilisé des outils IA pour réécrire le code dans différentes langues, le rendant disponible malgré les suppressions. Cela démontre à quel point une fuite de code peut être préjudiciable à l'ère de l'IA : une fois qu'il est diffusé, il se propage plus vite que quiconque ne peut le contenir.
Le code contient des techniques précieuses qu'Anthropic utilise pour contrôler ses modèles IA en tant qu'agents de codage — le "harness" — y compris une fonction de "rêve" pour la consolidation des tâches. Les concurrents disposent désormais d'une feuille de route pour reproduire les capacités de Claude Code, affaiblissant ainsi l'avantage d'Anthropic dans un marché déjà très concurrentiel.
Le moment est particulièrement mal choisi : l'entreprise prévoit une introduction en bourse avec une valorisation de 380 milliards de dollars, et ce type de fuite est peu susceptible de plaire aux investisseurs. Cela survient également quelques jours après une autre fuite concernant le nouveau modèle IA d'Anthropic, Mythos, également causée par une erreur humaine au sein du système de gestion de contenu de l'entreprise.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
