La fuite de code de Claude place Anthropic de l'autre côté de la bataille des droits d'auteur
Cette semaine, certains des secrets d'Anthropic ont été exposés, offrant aux concurrents un aperçu du fonctionnement de son agent IA populaire, Claude Code. Anthropic a accidentellement divulgué le code source de son agent IA, ce qui a rapidement fait le tour d'Internet, attirant des millions de vues et des adaptations sur GitHub. Pour contrôler la diffusion, Anthropic a envoyé une demande de retrait pour violation de droits d'auteur.
Lorsque un segment du code source de l'agent IA renommé d'Anthropic, Claude Code, a été publié sur GitHub mardi, cela a déclenché une véritable ruée. Des ingénieurs de tous horizons se sont empressés de l'explorer, espérant en tirer des enseignements et peut-être l'utiliser pour améliorer leurs propres projets. Si s'appuyer sur le contenu créé par d'autres pour améliorer l'intelligence semble familier, c'est parce que c'est exactement ce que les grandes entreprises d'IA ont fait pendant des années dans leur compétition pour entraîner leurs modèles de langage — Anthropic inclus. Il n'était donc pas sans une certaine ironie qu'Anthropic ait rapidement émis un avis de retrait pour empêcher les ingénieurs d'accéder au code divulgué.
« Nous avons émis un retrait DMCA contre un dépôt hébergeant le code source de Claude Code et ses forks », a déclaré un porte-parole d'Anthropic, faisant référence à la Digital Millennium Copyright Act.
Anthropic, OpenAI et Google ont tous été confrontés à des poursuites concernant leur utilisation de matériel protégé par des droits d'auteur — y compris des livres publiés, des articles, des revues scientifiques et d'autres contenus trouvés en ligne — sans autorisation explicite. En réponse, des auteurs, artistes et éditeurs ont utilisé la loi sur les droits d'auteur pour demander des comptes et, souvent, des paiements.
En septembre, un tribunal a ordonné à Anthropic de payer 1,5 milliard de dollars en dommages et intérêts dans le cadre d'une action collective intentée par des auteurs et des éditeurs — y compris les plaignants principaux Andrea Bartz, Charles Graeber et Kirk Wallace Johnson — pour des allégations selon lesquelles elle avait utilisé des livres piratés et des bibliothèques clandestines pour entraîner Claude.
Reddit a poursuivi Anthropic en juin dernier pour avoir extrait des volumes de contenu généré par les utilisateurs afin d'entraîner ses modèles sans autorisation ni compensation des utilisateurs. Le mois dernier, Universal Music Group, Concord et ABKCO ont également intenté une action contre Anthropic pour avoir téléchargé illégalement plus de 20 000 chansons protégées par des droits d'auteur, toujours dans le but d'entraîner ses modèles.
Maintenant, les rôles sont inversés, et Anthropic s'appuie sur les lois sur les droits d'auteur pour protéger ses propres créations. « Nous mettons en place des mesures pour éviter que cela ne se reproduise », a déclaré un porte-parole d'Anthropic.
Heureusement pour l'entreprise, la fuite pourrait ne pas être aussi grave que certains le pensaient. Paul Price, un spécialiste en cybersécurité et fondateur de l'entreprise de hacking éthique Code Wall — qui a récemment découvert des vulnérabilités dans le chatbot interne de McKinsey, Lilli — a déclaré que la fuite d'Anthropic n'avait pas exposé d'éléments critiques.
« C'est plus embarrassant que préjudiciable. La plupart des éléments vraiment intéressants se trouvent dans leurs modèles internes et cela n'a pas été divulgué », a-t-il déclaré à Business Insider. Il a précisé que l'entreprise avait involontairement exposé son "harness" — une infrastructure logicielle généralement utilisée pour connecter de grands modèles de langage au contexte plus large dans lequel ils sont utilisés.
« Claude Code est l'un des meilleurs systèmes de connexion d'agents qui existent, et maintenant nous pouvons voir comment ils abordent les problèmes difficiles », a ajouté Price, notant que cela pourrait également fournir des informations utiles aux concurrents.
La fuite a également mis en lumière un paradoxe du cycle de hype de l'IA : les mêmes outils qui rendent plus rapide que jamais la création et le déploiement de produits facilitent également la fuite, la réplication et la diffusion instantanée d'informations — sensibles ou non.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.