Bernie Sanders interviewe Claude : pourquoi son réquisitoire contre l’IA est un contresens technique

Bernie Sanders interviewe Claude : pourquoi son réquisitoire contre l’IA est un contresens technique
Le sénateur américain Bernie Sanders a publié une vidéo sur X le 19 mars 2026, dans laquelle il interviewe Claude, l'IA d'Anthropic, pour dénoncer la collecte massive de données personnelles et plaider pour une régulation plus stricte du secteur. Bien que l'intention soit louable, la méthode utilisée présente des problèmes techniques.
Sanders, qui milite pour un moratoire sur les nouveaux data centers dédiés à l'IA, cherche à illustrer les dangers de la collecte de données en interrogeant Claude sur ses pratiques. Cependant, interroger un modèle de langage (LLM) comme Claude est trompeur, car celui-ci n'a pas accès aux coulisses de son fonctionnement. Il ne peut pas voir les pipelines de données, les politiques de rétention ou les accès internes. Il génère des réponses basées sur des probabilités apprises à partir de textes, et non sur une observation directe des pratiques.
Une question légitime, mais mal adressée
Les questions posées par Sanders sont pertinentes : que collecte l'IA, comment ces données sont utilisées, et quelles pourraient être les surprises pour le public américain. Cependant, la première erreur réside dans le choix de l'interlocuteur. Claude, en tant que modèle de langage, ne collecte pas activement des données comme le ferait un réseau social ou un tracker publicitaire. La collecte de données dépend des services et de l'infrastructure qui entourent le modèle, et non du modèle lui-même.
Confusion entre types de données
L'interview crée également une confusion entre plusieurs catégories de données :
- Données d’entraînement : corpus utilisés pour entraîner le modèle
- Données d’usage : prompts, logs, interactions avec les utilisateurs
- Données issues d’autres services numériques : navigation, tracking publicitaire, achats, etc.
Ces types de données ont des usages, circuits et cadres réglementaires différents. Les mélanger dans un même discours empêche de comprendre les mécanismes réels. La réponse de Claude ne fait que reformuler des connaissances générales sur le capitalisme de surveillance, sans fournir d'informations spécifiques à Anthropic ou à ses pratiques.
Conclusion
L'échange entre Sanders et Claude illustre davantage la capacité du modèle à produire un récit cohérent que sa capacité à informer sur ses propres conditions de fonctionnement. Pour une évaluation crédible de la vie privée, il est nécessaire de mener des audits indépendants, d'exiger une transparence sur les flux de données et de réaliser des enquêtes sur pièces, plutôt que de s'appuyer sur une interview scénarisée avec un modèle d'IA.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.