Brief IA

Grammarly contraint de retirer une fonction IA après la colère d’écrivains et de chercheurs

🤖 Modèles & LLMvia Siècle Digital·Frédéric Olivieri·

Grammarly contraint de retirer une fonction IA après la colère d’écrivains et de chercheurs

Grammarly contraint de retirer une fonction IA après la colère d’écrivains et de chercheurs

⚡ Résumé en français par Brief IA

Grammarly a retiré une fonctionnalité d'IA en réponse aux critiques d'écrivains et de chercheurs.
1 fonctionnalité retirée, impactant une communauté d'écrivains de plusieurs milliers de membres.
Ce retrait met en lumière les tensions entre innovation technologique et préoccupations éthiques dans le secteur de l'écriture.
💡 Pourquoi c'est important : la gestion des retours utilisateurs est essentielle pour le succès et l'acceptation des outils d'IA dans la création de contenu.

📄 Article traduit en français

Grammarly contraint de retirer une fonction IA après la colère d’écrivains et de chercheurs

Une fonctionnalité d'IA accusée d'usurper l'identité d'écrivains…

Frédéric Olivieri
Publié le 12 mars 2026 à 14h34

Depuis plusieurs mois, les assistants IA multiplient les fonctionnalités destinées à améliorer la rédaction de textes, que ce soit pour corriger la grammaire, proposer des reformulations ou suggérer des idées. Mais ces innovations peuvent parfois susciter de vives réactions…

C’est précisément ce qui vient d’arriver à Grammarly, l’un des assistants d’écriture les plus utilisés au monde. L’entreprise a récemment dû désactiver une fonctionnalité d’IA baptisée « Expert Review », après une vague de critiques venant d’écrivains, de journalistes et de chercheurs dont les noms étaient utilisés par l’outil sans autorisation.

Une IA qui imitait les conseils de personnalités réelles

Concrètement, la fonctionnalité « Expert Review » avait été introduite afin d’aider les utilisateurs à améliorer leurs textes. L’outil proposait des commentaires et des suggestions d’écriture, présentés comme inspirés par des experts du domaine concerné.

Ces « experts » pouvaient être des auteurs célèbres, des scientifiques ou encore des journalistes. Selon les cas, l’IA présentait même des remarques supposément issues de personnalités comme des romanciers à succès, des universitaires ou des spécialistes de technologie.

Le problème, rapidement identifié par les utilisateurs, est que ces personnes n’avaient pas donné leur accord pour apparaître dans l’outil. Des noms d’écrivains ou de chercheurs, parfois décédés, étaient ainsi associés à des commentaires générés automatiquement par un modèle d’IA.

Une polémique qui conduit à une suspension rapide

Comme le rapporte Wired, face aux critiques, la réaction ne s’est pas fait attendre. Certains auteurs ont dénoncé une appropriation abusive de leur identité, tandis que des journalistes et universitaires ont estimé que l’outil pouvait laisser croire à une forme d’approbation ou de collaboration qui n’existait pas.

Ainsi, la journaliste américaine Julia Angwin a même déposé une plainte collective contre l’entreprise, estimant que l’usage de noms réels sans autorisation pouvait constituer une forme d’usurpation d’identité.

De son côté, le PDG de Superhuman, la société désormais propriétaire de Grammarly, Shishir Mehrotra, a annoncé la suspension de la fonctionnalité. Dans un message publié sur LinkedIn, il reconnaît que les critiques formulées par les experts étaient légitimes et que l’entreprise devait revoir sa copie.

L’entreprise explique désormais vouloir repenser la fonctionnalité afin de permettre aux experts de contrôler la manière dont leur nom ou leur travail pourrait être représenté, voire de refuser totalement cette utilisation.

Un nouvel épisode dans le débat autour de l’IA générative

Cette controverse illustre les tensions croissantes autour des modèles d’IA générative, où de nombreux outils reposent sur l’analyse de vastes ensembles de données provenant du web, ce qui soulève régulièrement des questions liées au consentement, au droit d’auteur ou à l’utilisation de l’identité de personnalités publiques.

Dans le cas de Grammarly, la situation met en lumière la difficulté de proposer des fonctionnalités inspirées d’experts humains sans donner l’impression qu’ils participent réellement au service.

La suspension de « Expert Review » pourrait ainsi marquer un tournant dans la manière dont les éditeurs d’outils d’IA conçoivent leurs fonctionnalités, si bien que pour les entreprises du secteur, la question de la représentation et du consentement des créateurs devient désormais un sujet de plus en plus sensible…

TwitterLinkedIn

Brief IA — Veille IA en français

Toutes les innovations mondiales en IA, traduites et résumées automatiquement. Recevoir les meilleures actus IA chaque jour.