Brief IA

Anthropic temporarily banned OpenClaw’s creator from accessing Claude

🤖 Models & LLMvia TechCrunch IA·Julie Bort·

Anthropic temporarily banned OpenClaw’s creator from accessing Claude

Anthropic temporarily banned OpenClaw’s creator from accessing Claude
En bref
1Anthropic a temporairement bloqué l'accès de l'utilisateur d'OpenClaw à Claude suite à un changement de tarification.
2Ce changement de tarification a eu lieu la semaine dernière, affectant les utilisateurs d'OpenClaw.
3Cette situation soulève des questions sur la gestion des accès et des tarifs dans l'écosystème des modèles IA.
💡Pourquoi c'est importantcette décision pourrait influencer la perception des utilisateurs sur la fiabilité des services IA et leur tarification.
📄
Article traduit en français

Anthropic interdit temporairement l'accès à Claude au créateur d'OpenClaw

“Oui, les amis, il va être plus difficile à l'avenir de garantir qu'OpenClaw fonctionne toujours avec les modèles d'Anthropic,” a posté le créateur d'OpenClaw, Peter Steinberger, sur X tôt vendredi matin, accompagné d'une photo d'un message d'Anthropic indiquant que son compte avait été suspendu en raison d'une activité “suspicious”.

L'interdiction n'a pas duré longtemps. Quelques heures plus tard, après que le post soit devenu viral, Steinberger a annoncé que son compte avait été rétabli. Parmi les centaines de commentaires — dont beaucoup relèvent de théories du complot, étant donné que Steinberger est désormais employé par le rival d'Anthropic, OpenAI — se trouvait un message d'un ingénieur d'Anthropic. Cet ingénieur a informé le célèbre développeur qu'Anthropic n'avait jamais interdit à quiconque d'utiliser OpenClaw et a proposé son aide.

Il n'est pas clair si cela a été la clé pour restaurer le compte. (Nous avons posé la question à Anthropic à ce sujet.) Mais l'ensemble de la conversation était éclairant à plusieurs niveaux.

Pour résumer l'histoire récente : cette interdiction a suivi l'annonce la semaine dernière que les abonnements à Claude d'Anthropic ne couvriraient plus les “harnachements tiers, y compris OpenClaw”, a déclaré la société de modèles d'IA.

Les utilisateurs d'OpenClaw doivent désormais payer pour cette utilisation séparément, en fonction de la consommation, via l'API de Claude. En essence, Anthropic, qui propose son propre agent, Cowork, impose maintenant une “taxe de claw”. Steinberger a déclaré qu'il respectait cette nouvelle règle et utilisait son API, mais a tout de même été banni.

Anthropic a indiqué qu'elle avait mis en place ce changement de tarification car les abonnements n'étaient pas conçus pour gérer les “modèles d'utilisation” des claws. Les claws peuvent être plus intensifs en calcul que les invites ou les scripts simples, car ils peuvent exécuter des boucles de raisonnement continues, répéter ou réessayer automatiquement des tâches, et se connecter à de nombreux autres outils tiers.

Cependant, Steinberger n'était pas convaincu par cette excuse. Après qu'Anthropic ait modifié la tarification, il a posté : “C'est drôle comme les timings correspondent, d'abord ils copient certaines fonctionnalités populaires dans leur harnachement fermé, puis ils excluent l'open source.” Bien qu'il ne l'ait pas précisé, il faisait peut-être référence aux fonctionnalités ajoutées à l'agent Cowork de Claude, telles que Claude Dispatch, qui permet aux utilisateurs de contrôler à distance des agents et d'assigner des tâches. Dispatch a été lancé quelques semaines avant qu'Anthropic ne change sa politique de tarification pour OpenClaw.

La frustration de Steinberger envers Anthropic était à nouveau manifeste vendredi.

Une personne a sous-entendu que cela lui revenait en partie d'avoir pris un emploi chez OpenAI au lieu d'Anthropic, en postant : “Tu avais le choix, mais tu es allé au mauvais endroit.” À quoi Steinberger a répondu : “L'un m'a accueilli, l'autre a envoyé des menaces légales.”

Lorsque plusieurs personnes lui ont demandé pourquoi il utilisait Claude au lieu des modèles de son employeur, il a expliqué qu'il l'utilisait uniquement pour des tests, afin de s'assurer que les mises à jour d'OpenClaw ne perturberaient pas les utilisateurs de Claude.

Il a précisé : “Il faut séparer deux choses. Mon travail à la OpenClaw Foundation où nous voulons faire en sorte qu'OpenClaw fonctionne parfaitement pour tous les fournisseurs de modèles, et mon emploi chez OpenAI pour les aider avec leur stratégie produit future.”

De nombreuses personnes ont également souligné que la nécessité de tester Claude est due au fait que ce modèle reste un choix populaire pour les utilisateurs d'OpenClaw par rapport à ChatGPT. Il a également entendu que lorsque Anthropic a changé sa tarification, à quoi il a répondu : “Je travaille là-dessus.” (C'est donc un indice sur ce que son emploi chez OpenAI implique.)

Steinberger n'a pas répondu à une demande de commentaire.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.