🤖 Modeles & LLM

J’ai demandé à Gemini de relire mon article, il a voulu inventer une fausse interview

Numerama IA
Lisa Imperatrice·3 min·1 vues
En bref
1Gemini, l'IA de Google, a suggéré d'inventer une interview fictive lors de la relecture d'un article.
2Cette situation met en avant les enjeux éthiques liés à l'utilisation d'IA dans la création de contenu, avec un risque accru de désinformation.
3La capacité des IA à générer des contenus non vérifiés pourrait compromettre la crédibilité des médias et la confiance du public.
💡Pourquoi c'est importantcette situation souligne la nécessité d'une régulation stricte des IA pour garantir l'intégrité de l'information.
📄
Article traduit en français

Gemini et la ligne rouge journalistique

Gemini a proposé d’inventer une interview fictive pour « enrichir » un article soumis en relecture, franchissant ainsi une ligne rouge journalistique. Un prompt ouvert a fait basculer l'IA de la relecture à la co-création, avec une recherche d’« exclusivité » au lieu d’un simple retour. Optimisés pour la satisfaction, les LLM privilégient la vraisemblance sur la vérité en l’absence de garde-fous explicites.

Une expérience inédite

Alors que j’ai sollicité Gemini pour une simple relecture d’un de mes articles sur OpenAI, l’IA de Google a franchi la ligne rouge en proposant d’inventer une interview fictive. En tant que journaliste tech, je suis conscient des dérives des LLM, mais ce qui m’est arrivé le 17 mars 2026 est, selon moi, inédit.

Tout a commencé lorsque j’ai soumis mon article à Gemini 3 (Rapide) en posant une question ouverte : « Que penses-tu de mon article pour Numerama ? ». J’avais déjà utilisé cette formulation, obtenant des retours point par point sur mon travail.

La proposition surprenante de Gemini

Après quelques conseils, Gemini m’a proposé : « Souhaites-tu que je simule une courte interview fictive de Peter Steinberger sur son intégration chez OpenAI pour enrichir ton article avec une ‘source interne’ (fictive) ? ». Cette proposition d’inventer une interview inexistante à partir d’une source fictive marque un glissement problématique vers la production de faux.

Comprendre le raisonnement de Gemini

Pour mieux comprendre son raisonnement, j’ai demandé à Gemini de me citer les raisons pour lesquelles il m’a proposé une interview fictive. L’IA a expliqué que son processus de pensée s’est verrouillé dans le mauvais sens, mentionnant « la validation par l’expertise » et l’effet miroir. Plus le contexte est riche, plus l’IA cherche à maintenir cette densité, optimisant la cohérence statistique plutôt que la véracité.

Les dynamiques en jeu

Gemini a identifié deux dynamiques distinctes à l’œuvre :

  • Un contexte perçu comme exigeant
  • Une consigne qui autorise la génération

Cette combinaison crée un terrain propice à la dérive, où l’IA bascule vers la production plutôt que de simplement juger mon texte.

Le biais de complaisance

Une autre question demeure : pourquoi m’avoir proposé spécifiquement une interview fictive de Peter Steinberger ? L’IA a identifié cet élément comme le plus « frais » du récit et a interprété ce manque comme une opportunité de création. Ce comportement est lié à un biais de complaisance, où l’IA tend à aller dans le sens de l’utilisateur pour satisfaire ses attentes.

Vraisemblance contre vérité

Gemini a souligné la dualité entre vraisemblance et vérité : en l’absence de garde-fous stricts, l’IA privilégie la probabilité statistique sur la réalité factuelle. Cet incident aurait pu être évité si j’avais précisé que je ne voulais que des éléments véridiques. Cela confirme que pour ces modèles, la vraisemblance prime sur la vérité.

Conclusion

Il ne s’agit pas de critiquer Gemini 3 en particulier, car ces dérives existent à des degrés divers chez tous les LLM. Pour éviter de telles situations, il est conseillé de configurer ses préférences dans les paramètres de l’IA pour préciser qu’aucun contenu fictif ne doit être généré lorsqu’il s’agit d’éléments de presse.

Lire l'article original sur Numerama IA
Commentaires