Brief IA

ChatGPT invente des faits et pille ses articles, Britannica vient de lancer son offensive

🛠️ AI Toolsvia Clubic IA·

ChatGPT invente des faits et pille ses articles, Britannica vient de lancer son offensive

ChatGPT invente des faits et pille ses articles, Britannica vient de lancer son offensive

Résumé en français par Brief IA

• L'Encyclopedia Britannica et Merriam-Webster poursuivent OpenAI pour utilisation non autorisée de leurs contenus. • Les actions en justice ont été déposées devant le tribunal fédéral de New York, marquant une escalade dans les tensions entre éditeurs et IA. • Cette affaire survient six mois après une plainte similaire contre Perplexity, soulignant une tendance croissante à protéger les droits d'auteur dans le domaine de l'IA. 💡 Pourquoi c'est important : cette situation pourrait redéfinir les limites de l'utilisation des contenus protégés par les IA et influencer les pratiques de l'industrie.

📄 Article traduit en français

L'Encyclopedia Britannica attaque OpenAI

L'Encyclopedia Britannica et Merriam-Webster ont lancé des actions en justice contre OpenAI devant le tribunal fédéral de New York. Six mois après une procédure similaire contre Perplexity, les deux éditeurs accusent ChatGPT d'avoir utilisé leurs contenus sans autorisation, d'abord pour entraîner ses modèles, ensuite pour les reproduire dans ses réponses.

L'encyclopédie revendique le droit d'auteur sur près de 100 000 articles en ligne et sur les volumes imprimés de la New Encyclopedia Britannica. La plainte s'articule autour de deux angles juridiques : la violation du Copyright Act de 1976 et la contrefaçon de marque au titre du Lanham Act.

Trois niveaux d'infraction

Selon la plainte, les articles de Britannica auraient été aspirés dès les premières versions via des bases de données comme "WebText" pour GPT-2 et "Common Crawl" pour GPT-3 et ses successeurs. On y retrouve des corpus où les sites de Britannica et Merriam-Webster figurent explicitement.

Le deuxième niveau d'infraction concerne le système RAG (Retrieval Augmented Generation). Ce procédé permet à ChatGPT de consulter des sources en temps réel pour compléter ses réponses. Concrètement, le modèle va chercher des informations directement sur des pages web disponibles en ligne, y compris celles des plaignants, sans accord de licence.

Le dernier niveau concerne les réponses elles-mêmes. La plainte joint des captures d'écran où GPT-4 reproduit mot pour mot des passages entiers des articles "Education" et "Tourism" de Britannica. Ironiquement, ChatGPT a repris la définition exacte du verbe "plagiarize" telle qu'elle a été publiée dans le Merriam-Webster Collegiate Dictionary. Le plaignant note que dans certains cas, le modèle supprime des paragraphes sans le signaler, déformant ainsi le contenu d'origine.

Trafic perdu et fausses informations

Britannica a abandonné son édition papier en 2012 pour pivoter entièrement vers le numérique. Ses revenus proviennent des abonnements et de la publicité, deux sources directement liées au volume de visites. Quand ChatGPT répond à une question couverte par un article de Britannica sans renvoyer vers le site, le trafic ne se génère pas : la valeur du contenu est captée par OpenAI sans compensation.

La plainte soulève aussi la question des hallucinations. Quand ChatGPT invente une information et l'attribue à "Britannica" ou "Merriam-Webster", il viole le Lanham Act. Selon les plaignants, ces fausses attributions induisent les utilisateurs en erreur sur l'origine du contenu et ternissent des marques dont la légitimité repose sur plus de 250 ans de rigueur éditoriale.

En septembre 2025, nous rapportions que les mêmes plaignants avaient déjà attaqué Perplexity devant le même tribunal fédéral de New York, pour des motifs quasi-identiques, une affaire toujours en cours.

On compte désormais plus de 90 procès pour violation de droits d'auteur déposés contre des sociétés d'IA aux États-Unis. Pour l'heure, le précédent le plus significatif reste l'affaire Anthropic (Bartz v. Anthropic). L'éditeur de Claude a été accusé d'avoir utilisé des livres piratés pour entraîner ses modèles. Anthropic a accepté en 2025 un règlement de 1,5 milliard de dollars, le montant le plus élevé enregistré dans cette vague de litiges.

TwitterLinkedIn

Brief IA — Veille IA quotidienne

Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.