Et si l'IA consommait moins d'énergie que Google ?
Une requête ChatGPT consomme 10 fois plus d'énergie qu'une recherche Google. Cette phrase, vous l'avez lue 100 fois. Mais est-ce vraiment vrai ?
Charles Duprat, chercheur en inclusion numérique, vient de publier un papier qui remet complètement en question ce chiffre. Même si je ne peux pas vérifier la validité scientifique de tout ce qu'il avance, cela mérite d'être discuté.
Son argument de base est simple et pertinent. En fait, lorsque l'on compare l'énergie d'une requête IA à une recherche Google, on ne prend en compte que ce qui se passe côté serveur, plutôt que l'ensemble de la chaîne. On considère le GPU Nvidia qui travaille d'un côté et l'index Google qui répond de l'autre.
Cependant, dans la réalité, une recherche web sur votre iPhone ou votre Android ne se limite pas à un serveur qui fonctionne. Cela implique :
- Le téléchargement de plusieurs mégaoctets via la 4G.
- Du JavaScript et du CSS qui sollicitent le CPU de votre téléphone.
- Du temps d'écran.
- Des dizaines de scripts publicitaires et de trackers qui fonctionnent en arrière-plan.
Et rien de tout cela n'apparaît dans le bilan "officiel".
Du coup, le chercheur a modélisé la comparaison au niveau de la session utilisateur complète. Il ne s'agit donc pas seulement de la requête serveur, mais de tout le parcours : réseau mobile, rendu de page, publicités, temps passé à lire. Les résultats sont contre-intuitifs, car pour une tâche complexe sur mobile (comme comparer des pompes à chaleur et des chaudières à gaz), une session de LLM consommerait environ 5,4 fois moins d'énergie qu'une session de recherche web classique. Dans le pire des cas modélisé, l'avantage reste tout de même de 1,6 fois.
D'où provient cette différence ?
D'abord, la page web médiane sur mobile pèse 2,56 Mo. Oui, 2,56 Mo pour une seule page web sur Chrome ou Safari, qui est ensuite transmise en 4G à 0,17 kWh/Go. Cela coûte déjà plus en énergie réseau qu'une inférence LLM complète. Une réponse ChatGPT ou Claude représente environ 5 Ko de texte brut. Le ratio de transmission est donc de 500 pour 1 avant même de considérer le reste.
De plus, il y a le problème de la publicité programmatique ! Des études (Khan et al., 2024) montrent que les bloqueurs de publicité intégrés comme Brave réduisent la consommation électrique du terminal de 15 à 44%. En gros, lorsque vous naviguez sur un site d'actualités classique, jusqu'à 41% de l'énergie de la session sert à charger et exécuter du JavaScript publicitaire. Eh bien, le LLM contourne tout cela en vous fournissant une réponse texte directe.
Comme je l'ai mentionné, je ne peux pas valider la méthodologie de cette étude... On ne sait jamais si les paramètres sont bien calibrés. C'est un working paper, donc pas encore relu par des pairs, avec des simulations plus nombreuses. L'auteur se base sur des chiffres publiés par Google pour Gemini (0,24 Wh par prompt), par Epoch AI pour ChatGPT (0,30 Wh), et par Sam Altman lui-même (0,34 Wh). Étant donné que ces chiffres proviennent des constructeurs eux-mêmes, il est important de garder un œil critique.
Cependant, l'étude a aussi l'honnêteté de poser ses propres limites, car l'avantage s'effondre pour les requêtes simples en Wi-Fi depuis votre PC ou Mac (quasi parité LLM <> Google). Et surtout, cela s'inverse violemment dès qu'on passe aux modèles de raisonnement comme o3 ou Deep Think, qui consomment 30 à 700 fois plus qu'une inférence standard, car ils génèrent des chaînes de pensée à rallonge.
Le paradoxe de Jevons est également mentionné : si l'IA est plus efficace par requête, les gens en feront forcément plus, donc la consommation globale augmentera quand même. La question des modèles éco-responsables reste également entière.
Cette étude remet en question une affirmation que nous répétons tous sans trop réfléchir. Comparer un serveur IA à un serveur Google, c'est oublier que la recherche web moderne est devenue "recherche + publicité + réseau mobile + rendu JavaScript + temps d'attention". Et comme Google lui-même commence à intégrer de l'IA (les AI Overviews) en plus de ses résultats classiques, cela complique encore plus la mesure.
Lisez l'étude vous-mêmes, elle est en accès libre. Et faites-vous votre propre avis !
📧
Cet article vous a plu ?
Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.
