Les réponses IA de Google se trompent encore trop souvent, selon une enquête du New York Times

Les réponses IA de Google se trompent encore trop souvent, selon une enquête du New York Times
5 000 milliards de recherches par an, c'est le volume de requêtes que Google traite chaque année.
La question de la fiabilité des résumés générés par l'IA est de nouveau au centre des débats. Une enquête récemment publiée par le New York Times, en collaboration avec la start-up Oumi, apporte des éléments de réponse à cette problématique.
4 000 questions pour mesurer l’IA de Google
Oumi a soumis 4 000 questions aux AI Overviews via le protocole SimpleQA, un test reconnu dans le secteur. Les résultats montrent que 91% des réponses fournies par Gemini 3 étaient correctes, contre 85% pour Gemini 2 en octobre dernier. Bien que cette progression soit notable, le taux d'erreur de 9% se traduit par un chiffre alarmant : des centaines de milliers de fausses informations sont diffusées chaque minute, souvent avec la même assurance que les réponses correctes.
Google conteste la méthodologie de l'enquête. La société de Mountain View affirme que SimpleQA contient lui-même des inexactitudes et que les questions posées ne reflètent pas la véritable distribution des recherches quotidiennes. Cet argument, bien que valable, masque un autre chiffre moins flatteur : les données internes de Google indiquent un taux d'erreur de 28% pour certains types de requêtes.
Le problème invisible des sources fantômes
Au-delà du taux d’exactitude brut, l’enquête met en lumière un problème encore plus préoccupant. 56% des réponses correctes fournies par Gemini 3 sont « non ancrées », c'est-à-dire que les liens fournis en référence ne confirment pas réellement les affirmations présentées. En octobre 2025, ce taux était déjà de 37%, indiquant une progression plus rapide de l'absence de fiabilité que de la fiabilité du modèle lui-même.
Google devient de plus en plus précis dans ses réponses, mais de moins en moins transparent sur leur provenance. Un utilisateur qui clique sur les sources pour vérifier les informations se retrouve souvent sur des pages qui ne corroborent pas le résumé. La majorité des utilisateurs ne cliquent pas, ce qui constitue un problème majeur.
Google est éditeur malgré lui
Depuis 2024, Google a changé de nature. En plaçant les AI Overviews en tête de ses résultats, le moteur de recherche est devenu un producteur de contenu plutôt qu'un simple agrégateur de liens. Ce changement a des implications juridiques et éditoriales importantes. Lorsqu'un résumé comporte une erreur concernant un traitement médical, un résultat électoral ou une décision judiciaire, la responsabilité ne repose plus uniquement sur la source originale.
L’enquête de l’UER, coordonnée avec la BBC et 22 médias publics dont Radio France, précise que les assistants IA déforment l’information 45% du temps sur des sujets d’actualité. Bien que Google ne soit pas le seul acteur concerné, son poids, avec 5 000 milliards de requêtes annuelles, est sans équivalent. De plus, 63% des utilisateurs n'ont pas confiance dans les publicités diffusées par l'intelligence artificielle.
Brief IA — Veille IA quotidienne
Toutes les innovations IA du monde entier, résumées et analysées automatiquement chaque jour.