Votre recherche Google sur mobile consomme 5 fois plus d'énergie qu'une requête IA
Le narratif selon lequel l'IA pollue plus que Google repose sur une mauvaise unité de mesure. Voici ce que les données révèlent vraiment, session par session.
Scène familière : vous cherchez quelque chose sur Google depuis votre smartphone. Vous tapez, obtenez dix liens, cliquez sur le premier, la page met trois secondes à charger, mais ce n'est pas ce que vous cherchiez. Vous revenez, cliquez sur le deuxième, trop superficiel, puis sur le troisième. Quinze minutes passent.
Maintenant, posez-vous la question : combien d'énergie votre téléphone a-t-il consommé pendant tout ce temps ? Personne ne se la pose, et c'est exactement le problème.
Depuis 2023, le narratif dominant affirme qu'une requête IA consomme dix fois plus d'énergie qu'une recherche Google. Cette affirmation a envahi les rapports RSE, les débats réglementaires et les comités de direction. Je l'entends à chaque conférence et la lis dans chaque benchmark de maturité IA que mes clients me soumettent.
Cette comparaison est erronée. Elle met en face le coût serveur d'une requête Google (ce que paie le data center de Mountain View) contre le coût serveur d'une réponse LLM, sans tenir compte de tout ce qui se passe sur votre téléphone, sur le réseau, et dans les coulisses de la publicité programmatique pendant que vous cherchez.
En mars 2026, Charles Duprat (ICOM'Provence) a publié un working paper qui pose enfin la bonne question : "combien consomme l'utilisateur pour satisfaire un besoin d'information complet — de la première recherche jusqu'à la réponse finale ?" Ce changement d'unité change tout.
La comparaison basée sur de mauvaises données
En 2023, une affirmation colonise les débats : une requête LLM consomme dix fois plus d'énergie qu'une recherche Google. Elle s'imprime dans les comités RSE, les articles réglementaires et les discours d'experts.
Problème : cette comparaison mesure uniquement ce que consomme le data center de Google pour traiter votre requête (environ 0,30 Wh) et ce que consomme un cluster GPU pour générer une réponse LLM (environ 0,24 à 0,34 Wh selon Google, Epoch AI et OpenAI — trois sources indépendantes convergentes).
C'est là que tout s'arrête, et c'est là que tout se trompe. Une recherche Google ne vous donne pas de l'information, mais une carte vers de l'information hébergée ailleurs. L'énergie pour naviguer cette carte — télécharger les pages, rendre le JavaScript, subir les enchères publicitaires — est portée par votre appareil, votre réseau mobile, et une infrastructure ad-tech largement invisible. Rien de tout cela n'apparaît sur le compteur du data center.
Les chiffres réels, session par session
Prenons une tâche concrète sur mobile : comparer deux solutions techniques sur trois sources, 5G, réseau non-standalone (ce que la quasi-totalité du "5G" français est encore en 2026 — NSA, c'est-à-dire cœur 4G).
Session de recherche web, chiffres par composante :
- Traitement de la requête serveur : 0,30 Wh
- Réseau : 3 pages × 2,56 Mo (médiane HTTP Archive 2025) × 0,14 kWh/Go = 1,08 Wh
- Rendu des pages (CPU/GPU device) : 0,60 Wh
- Charge publicitaire (30% du rendu, mesure Khan et al. 2024) : 0,18 Wh
- Temps écran (6 minutes × 2,5 W) : 0,25 Wh
Session LLM équivalente :
- Inférence (modèle standard, pas reasoning) : 0,30 à 0,40 Wh
- Réseau : payload texte de 5 Ko, négligeable
- Temps écran (2,5 minutes) : 0,10 Wh
Total : 0,40 à 0,50 Wh
Le ratio central est de 5,4 fois en faveur du LLM. Duprat valide ce chiffre avec une analyse Monte Carlo sur 10 000 tirages et 9 paramètres libres. Résultat : aucune combinaison de valeurs ne fait descendre la recherche en dessous du LLM. Le plancher observé — cas le plus défavorable au LLM — est de 1,6 fois.
Trois mécanismes qui expliquent l'inversion
-
Premier mécanisme : le réseau mobile est le vrai coupable. La page mobile médiane pèse 2,56 Mo en 2025. Sur 4G, cela coûte 0,44 Wh en énergie de transmission pour une seule page, avant même d'avoir rendu un pixel. Une réponse LLM est un payload texte de 2 à 10 Ko, avec un rapport de transmission de l'ordre de 500:1. Le réseau n'est pas un coût marginal — c'est la composante dominante de l'empreinte d'une session de recherche mobile.
-
Deuxième mécanisme : la publicité programmatique est une taxe énergétique invisible. Lorsque vous chargez une page ad-supported, une enchère s'ouvre en parallèle. Des dizaines de DSP reçoivent la demande, mais la quasi-totalité perdent — et consomment des cycles CPU pour rien. Khan et al. (2024) l'ont mesuré directement : les ad-blockers intégrés réduisent la consommation device de 15 à 44% par rapport à une navigation normale. Cela signifie qu'entre un sixième et presque la moitié de l'énergie que votre smartphone brûle en naviguant alimente l'écosystème publicitaire, pas le contenu que vous lisez. Un LLM contourne intégralement cette infrastructure.
-
Troisième mécanisme : la vitesse de complétion réduit le temps écran. L'étude CHI 2025 de Spatharioti et al. — design randomisé entre deux groupes — mesure que les utilisateurs LLM terminent les tâches de synthèse plus vite, avec moins de requêtes. Moins de temps écran signifie moins de watts. Le comportement dit "pogo-sticking" — cliquer, trouver la page décevante, revenir au SERP, recommencer — crée une pénalité que les modèles statiques ne capturent jamais. Chaque retour au SERP sur mobile coûte 0,30 à 0,60 Wh supplémentaires. Le LLM élimine structurellement ce pattern en livrant une synthèse complète au premier échange.
Les angles morts qu'il faut nommer
Trois limites réelles, pas des nuances de confort :
-
Sur Wi-Fi fixe, l'avantage s'effondre. Sur réseau fixe (0,006 kWh/Go), le coût de transmission chute de 95%. L'avantage LLM tombe à 1,5–2,5 fois sur tâches complexes et atteint la parité sur requêtes simples. L'inversion est un phénomène mobile.
-
Sur les modèles reasoning, la logique s'inverse, parfois violemment. Claude Opus en mode thinking, GPT-o3, Gemini Deep Think : ces modèles génèrent des chaînes de raisonnement étendues. Jin et al. (2025) documentent une expansion moyenne de 4,4 fois les tokens de sortie en production, avec des cas extrêmes à 113 fois. Le seuil de croisement avec la recherche mobile — le point où le LLM devient plus énergivore — se situe à un facteur de 4 à 8 fois.
-
Le paradoxe de Jevons n'est pas balayé par l'efficacité unitaire. ChatGPT dépasse 2 milliards de requêtes quotidiennes fin 2025. Si cette demande est nouvelle plutôt que substituée à de la recherche web, la consommation totale augmente indépendamment du ratio unitaire. L'efficacité par session ne dit rien de l'efficacité agrégée. Ce sont deux questions distinctes et les deux méritent une réponse sérieuse.
Ce que ça change concrètement pour votre organisation
Si vous pilotez une stratégie de déploiement IA ou une politique RSE numérique, voici trois implications directes :
-
Premièrement : le choix du modèle est une décision énergétique, pas seulement une décision de performance. Utiliser un modèle reasoning pour des tâches de synthèse standard — ce que la majorité des entreprises font par défaut parce que "c'est le meilleur modèle" — multiplie l'empreinte par un facteur que personne ne chiffre dans les bilans carbone. Le routage intelligent par complexité de tâche n'est pas un luxe technique, c'est un impératif de cohérence RSE.
-
Deuxièmement : vos équipes sur mobile font de la recherche web là où un LLM standard serait 5 fois moins énergivore. Pour les tâches de synthèse, de veille, de comparaison multi-sources — la substitution est mesurable, immédiate et ne nécessite aucun investissement supplémentaire.
-
Troisièmement : l'infrastructure publicitaire du web est un coût externalité que vos collaborateurs portent sans le voir. Auditer l'empreinte numérique de votre organisation sans compter les 15 à 44% d'énergie device aspirés par la pub programmatique, c'est un angle mort comptable significatif.
Ce que j'observe sur le terrain depuis trois ans
Sur les 200 projets IA que j'ai déployés en entreprise B2B entre 2022 et 2025, un pattern revient systématiquement lors des audits de maturité numérique : les équipes qui ont basculé leurs tâches de recherche et de synthèse vers un LLM standard ne l'ont pas fait pour des raisons écologiques. Elles l'ont fait parce que c'est plus rapide.
Résultat collatéral : elles ont mécaniquement réduit leur empreinte numérique mobile, sans s'en rendre compte, sans le mesurer. Duprat fournit maintenant le cadre pour le chiffrer. Et le chiffre est brutal.
Ce que ça change, concrètement
Revenons à la scène du début. Vous cherchez une information complexe sur mobile.
Scénario A — Google :
Quatre requêtes, sept pages chargées, quinze minutes d'écran, enchères publicitaires en arrière-plan. Consommation estimée : 2,41 Wh.
Scénario B — LLM standard :
Une requête, réponse synthétisée en trente secondes. Consommation estimée : 0,40 Wh.
Vous n'avez pas fait un geste écologique. Vous avez juste posé votre question au bon endroit.
Le narratif "l'IA consomme dix fois plus que Google" n'est pas seulement inexact. Il protège une infrastructure — le web publicitaire mobile — dont le coût énergétique réel n'a jamais été correctement comptabilisé parce que personne n'avait intérêt à le faire.
Une page web moderne n'est pas un document. C'est un package logiciel qui exécute des centaines d'opérations pour des annonceurs que vous ne verrez jamais. Vous en payez le coût en temps. Votre batterie en paye le coût en watts.
Le LLM gagne cette comparaison parce que ses adversaires sont extraordinairement inefficaces. Pas parce qu'il est vertueux. C'est une différence qui compte — pour vos décisions d'achat.
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
