Ce n’est pas un secret, les data-centers dédiés à l’intelligence artificielle sont des gouffres à énergie. Mais ce n’est que le début, selon une étude menée par le projet AI Energy Score, comme le rapporte Bloomberg : les modèles avec raisonnement consommeraient environ 100 fois plus d’énergie que les modèles standards !

Pour cette étude, les modèles observés sont divers et variés : l’équipe s’est attelée à vérifier la consommation de 40 différents modèles ouverts, tous mesurés sur la même plateforme matérielle, allant d’OpenAI à Google ou Microsoft, en passant par DeepSeek. Pour avoir les mesures les plus précises possibles, l’équipe a utilisé le logiciel CodeCarbon, permettant d’avoir des mesures précises de la consommation de chaque process.
Des résultats qui font disjoncter
DeepSeek d’ailleurs, parlons-en : leur modèle R1, très raisonnable en version standard avec une consommation de 50 Wh pour 1000 prompts (soit à peine la consommation d’une ampoule ancienne génération sur une heure) passe à un gargantuesque 308 Wh une fois le raisonnement activé, soit six fois plus !
Et les concurrents ne sont pas en reste, voire explosent le score de DeepSeek R1 : le modèle Phi 4 de Microsoft, par exemple, passe d’un économique 18 Wh à... 9 462 Wh ! Un gouffre ! Le delta observé sur le modèle d’OpenAI est bien moins élevé, mais il faut dire que le modèle part de bien plus haut : si le mode « raisonnement » consomme 8 504 Wh, le mode « basse consommation » consomme tout de même 5 313 Wh... pas de quoi pavoiser.
Si aucun des acteurs n’a souhaité commenter les résultats, une étude interne de Google annonçait en aout une estimation de 0,24 Wh d’énergie consommée pour chaque prompt textuel moyen de Gemini AI, soit l’équivalent de « 9 secondes de télévision » (on a les repères qu’on mérite...). Google se félicitait d’avoir des consommations réelles « bien en dessous de nombreuses estimations publiques ».
Un impact bien présent sur les réseaux électriques
Le problème principal de cette consommation gargantuesque se fait déjà ressentir : les réseaux électriques, spécialement aux USA où ils ne sont déjà pas très en forme, sont par endroits tellement sollicités qu’ils sont au bord de la rupture. Et les choses ne vont pas aller en s’améliorant, étant donné les velléités d’installation de nouveaux data-centers, qui poussent comme des champignons, toujours plus gros les uns que les autres.
Dans de nombreuses régions US où ces data-centers se sont implantés, le prix de l’électricité a ainsi grimpé, pour refléter la demande énorme par rapport aux capacités du réseau, allant jusqu’à + 267 % dans certains endroits en cinq ans.
Pour contrer cette sur-consommation, et surtout le risque de faire tomber un réseau qui leur est vital, les entreprises de la tech ont trouvé une parade, s’il en est : plutôt que de diminuer la consommation, chose qui paraît difficile avec une demande en croissance exponentielle et des modèles toujours plus complexes, elles ont installé leurs nouveaux data-centers juste à côté de moyens de production d’électricité. Ainsi, Microsoft prévoit le redémarrage de Three Miles Island, et Google a suivi le chemin.
Comme Microsoft, Google va rouvrir une centrale nucléaire pour ses data-centers
D’autres idées sont en cours d’exploration, comme l’utilisation massive de l’inférence, permettant ainsi d’utiliser un modèle déjà entraîné pour certaines réponses, diminuant drastiquement sa consommation, le raisonnement de départ ayant déjà été fait plus tôt.
Les patrons des entreprises axées sur l’IA, s’ils ne paraissent pas faire grand chose pour contrer la consommation de leurs modèles, semblent au moins pour certains conscients du problème. Ainsi, Satya Nadella, patron de Microsoft, a récemment admis que « l’industrie doit obtenir l’autorisation de la société de consommer de l’énergie » dans une interview en novembre, insistant ainsi sur le fait que l’IA doit prouver son utilité pour le bien commun pour être acceptée de tous. Reste que les paroles sont très peu suivies d’actes, ou en tout cas pas à la même vitesse que le développement de serveurs gigantesques et gargantuesques.














