Bing et GPT-4 font exploser la consommation d'eau de Microsoft : plus de 2 500 piscines olympiques en 2022
Alors que Meta semble en train de construire un centre géant utilisé pour entraîner ses futurs modèles d'IA, certains se sont penchés sur le bilan écologique de ce type de structure. Fortune a notamment passé au crible le rapport environnemental de Microsoft pour 2022 : on peut y voir que sa consommation d'eau a grimpé de 34 % d'une année sur l'autre et s'approche des 6,5 milliards de litres.
L'entraînement d'un modèle de langage (le moteur utilisé par ChatGPT ou Bard) nécessite d'analyser d'énormes quantités de textes, ce qui demande plusieurs milliers de cartes graphiques branchées ensemble et optimisées pour fonctionner correctement. Microsoft a mis sur pied un data center pharaonique ayant coûté « probablement plus » d'une centaine de millions de dollars selon son vice-président exécutif. Pour rappel, certaines puces spécialisées sur l'IA de NVIDIA comme la H100 sont vendues plus de 30 000 euros pièce. Les cartes graphiques tournent ensuite à plein régime, ce qui nécessite beaucoup d'électricité et génère donc de la chaleur.
ChatGPT : comment Microsoft a créé une infrastructure massive pour entraîner le modèle de langage d'OpenAI
Comme le révèle Fortune, il faut beaucoup, beaucoup d'eau pour refroidir tout cela. En 2022, la consommation d'eau de Microsoft était équivalente à plus de 2 500 piscines olympiques. La ville de West Des Moines affirme que Microsoft a pompé environ 45 millions de litres d'eau pour ses centres de données de l'Iowa en juillet 2022, soit le mois précédant la fin de l'entraînement de GPT-4. Cela représente environ 6 % de toute l'eau utilisée dans le district, qui fournit également de l'eau potable aux habitants de la ville. Interrogée sur le sujet, la firme de Redmond a expliqué continuer ses recherches pour réduire son empreinte écologique et rendre ses systèmes plus efficaces.
Nous continuerons à surveiller nos émissions, à accélérer les progrès tout en augmentant notre utilisation d'énergie propre pour alimenter nos centres de données, en achetant de l'énergie renouvelable et en déployant d'autres efforts pour atteindre nos objectifs en matière de développement durable, à savoir être neutres en carbone, positifs en eau et sans déchets d'ici 2030.
Une équipe de chercheur essaye depuis quelque temps de calculer l'impact environnemental des chatbots. Ils estiment qu'une série de 5 à 50 requêtes envoyées à ChatGPT nécessite un peu moins d'un demi-litre d'eau, la consommation dépendant de l'emplacement des serveurs et de la saison. Microsoft n'est pas la seule a se frotter à la question, et la consommation de Google a également augmenté de 20 % en 2022.
Est-ce que nos cerveaux non assujettis à un ia consommeraient moins d’eau ?
Au boulot
« énergie propre » ou « énergie renouvelable » ne changent rien à l’affaire, une bonne partie des kWh consommés finiront bien par sortir de la boîte sous forme de chaleur, qu’il faudra évacuer d’une façon ou d’une autre. Ces technomanes ont décidément la langue bien fourchue…
Tu construis un center park à côté. Problème réglé.
Mes excuses à tous ceux qui n’ont pas détecté mon sarcasme (ainsi qu’à leur entourage) 😅
@Thms: hehe, me disait bien 👍🏻😅
2500 piscines olympiques, c'est à peine 3 pyramides de Keops. Ça va ! 😬
Source : https://theklem.github.io/ (je vous conseille de regarder les unités proposées 😇)
Dites les journalistes, possible d'utiliser des unités qui existe ? Ça vaut rien comme unité ça ! La profondeur d'une piscine olympique est variable... elle peut très bien faire moins d'un mètre de profondeur... (j'ai pas dis que ça serait pratique pour nager !)
@Link1993
Je me demande du reste quelle est la longueur d’une piscine olympique. 1/10eme de Tour Eiffel ?
@Tomtomrider
Normalement on peut convertir n piscine olympique en n tout Eiffel, avec un équivalent en n Ferrari. Faut que je retrouve le tableau qui résume tout ça, c’était dans un Paris-Match
@Link1993
"2500 piscines olympiques, c'est à peine 3 pyramides de Keops."
D’où l’on peut conclure que les pyramides de Gizeh ne sont en fait que les collines de gravats issues de l’excavation des bassins de refroidissement des centres pharaoniques de calcul, signalés par les hiéroglyphes 🐈💨.
Et pendant ce temps là, on va pleurer sur notre consommation perso…
La génération donneuse de leçons élevée aux réseaux sociaux, cloud services et chatGPT va encore nous dire qu’on fait n’importe quoi 😂😂😂
J’adore
> la consommation d'eau de Microsoft était équivalente à plus de 2 500 piscines olympiques
Sur combien de temps ?
(Par jour ?)
> La ville de West Des Moines affirme que Microsoft a pompé environ 45 millions de litres d'eau pour ses centres de données de l'Iowa en juillet 2022
Ils ne savent pas réutiliser l'eau ?
C'est comme si on devait connecter nos réfrigérateurs à une source permanente de gaz réfrigérant. Une hérésie.
@marc_os
deja j’ignorais que ca se refroidissait a l’eau ! ensuite ca me semble imaginable en circuit fermé. ce qui voudrait dire que cette eau tourne en boucle, une fois pompée ce qui relativise le problème
@marc_os
J’imagine d’après le titre que c’est sur l’année entière de 2022 et que du coup 2500 piscines olympiques correspondent à 45Millions de litres.
Pas dit que Microsoft n’ait pas besoin de plus d’eau, ni qu’il ne l’a réutilise pas, mais qu’en attendant il en a pompé 45 millions de litres sur 2022
Bien que techniquement possible, les Big Tech ont besoin de prendre conscience que l’utilisation actuelle d’uniquement des transistors en silicium et mémoire volatile n’est PAS une façon énergétiquement efficace pour l’objectif de créer des réseaux de neurones artificiels : l’avancée technologique (rupture technologique) dont il y a besoin est les memristors (mémoire non-volatile memristives), type Phase Change Memory (PCM), ReRAM, MRAM,…
Comme dans de nombreux domaine, il faut utiliser le bon outil pour la bonne application, c’est BEAUCOUP plus efficace…
Bien que techniquement possible, la simulation logicielle de reseaux de neurones artificiels avec des transistors au silicium et des memoires volatiles est néanmoins TRES inefficace d’un point de vue énergétique…
Il semble par contre que, l’utilisation de memristor (type ReRAM, MRAM) puisse permettre d’emuler le fonctionnement réel des synapses et a le potentiel diminuer par 1000x / 10 000x la consommation d’energie comparé a une simulation logicielle de reseaux de neurones artificiels faite uniquement avec des transistors au silicium et des memoires volatiles…
https://rain.ai
https://www.eetimes.com/research-breakthrough-promises-end-to-end-analog-chips-for-ai-computation/
https://www.eetimes.com/rain-demonstrates-ai-training-on-analog-chip/?utm_source=aihardwareshow&utm_medium=youtube
@dujarrier
Une évolution technologique a t elle déjà pu contre-balancer l’effet rebond provoqué par l’apport de cette technologie ?
Ce que je veux dire, la technologique ne suffit pas
Jusqu’ici elle permet surtout de diminuer l’accélération de l’augmentation de la consommation
@Lexada
Oui, il y aurait effectivement surement un effet rebond…
Les technologies des reseaux de neurones artificiels ont un très vaste champ d’applications potentielles, et bien utilisée, elles ont le potentiel d’améliorer significativement certaines tâches.
Il y a donc de toute façon le besoin de rendre l’accès à ces technologies à plus de personne, et l’un des moyens de le faire plus efficacement par personne, est a mon avis, d’utiliser les memoires non-volatiles memristives (type VG-SOT-MRAM du centre de recherche europeen IMEC)
Par exemple, j’utilise de plus en plus le chatbot de l’application iOS Bing de Microsoft (et/ou le chatbot de l’application iOS de ChatGPT) pour poser des questions, et l’avantage de celui de Bing, c’est qu’il donne une réponse, avec egalement des liens.
Ca fait gagner bcp de temps comparé a des recherches par mot-clés sur le site de Google…
Mais en 2023, l’entrainement, puis l’utilisation (inference par personne) consomme BCP d’energie, et coutent TRES cher.
La technologie des memristors a le potentiel de diviser par 100x (et bcp plus) cette consommation par personne (pour 1 même usage), mais oui, vu qu’il y aura ensuite plus de personnes et plus d’usage (IA dans tous les appareils electroniques), alors il y a de forte chance que au global, la consommation ne diminuera pas…
@dujarrier
Intéressant, ça pourrait avoir un intérêt pour la consommation de tout type de data center ou bien c’est surtout pour l’IA ?
@Lexada
Contrairement a la mémoire cache SRAM (qui semble avoir besoin d’être alimenté en permanence pour maintenir l’information en mémoire), et la mémoire vive DRAM (qui semble avoir besoin d’être rafraichit toutes les 32/64ms pour maintenir l’information en mémoire, les mémoires vive non-volatile memristives type MRAM dont bi-stable (ou plusieurs etats de stabilité), et selon le type de MRAM, peuvent conserver l’information jusqu’a plusieurs décennies…
Par exemple, la MRAM semblent donc avoir des applications potentielles dans tout appareils electroniques, utilisées comme memoire bi-stable, mais ouvre aussi l’apportunité d’emuler le fonctionnement des synapses (IA) de façon plus efficace d’un point de vue energetique.
Il y a bien encore plusieurs challenges (problèmes) à résoudre, mais pour pouvoir accelerer la generalisation de ces memoires, a titre personnel, je pense surtout qu’il faudrait surtout enfin enclanché une production à très grande échelle (et quasi uniquement une ou plusieurs Big Tech aurait les ressources financières pour ça (plusieurs milliards de dollars)), avec le soutien d’aides des états (tel le Chips Act aux USA et/ou en Europe, ou bien les aides pour les usines de batteries pour les VE,…)
https://www.imec-int.com/en/articles/mram-technologies-space-applications-unified-cache-memory
https://www.imec-int.com/en/articles/novel-sot-mram-architecture-opens-doors-high-density-last-level-cache-memory-applications
@ dujarrier
> Il y a bien encore plusieurs challenges (problèmes) à résoudre
Le plus gros problème, ce sont les performances inférieures avec ces nouveaux types de mémoire, comme rappelé dans l'article que tu as mis en lien :
Despite large improvements in memory density, all these memories are struggling to keep pace with the ever-increasing performance of logic chips and with the tremendous data growth rate
D'ailleurs, ce type de problème n'est pas nouveau, il a toujours fallu trouver le meilleurs compromis consommation / performance selon les usages.
@marc_os
Il existe plusieurs versions differentes de la mémoire MRAM avec des compromis différents (vitesse, durée de rétention, endurance,…), donc certaines sont plus adaptées a certains usages qu’a d’autres.
Par exemple, un appareil IoT (Internet of Things) aura probablement une frequence de fonctionnement plus faible, qu’un processeur haute performance dans un data center.
Ceci etant dit, d’apres le 2eme article, il semble que la mémoire VG-SOT-MRAM semble réunir des nombreuses caractéristiques techniques recherchées…
Dès lors, j’aurai tendance a supposer que c’est surtout le coût/prix qui bloquerait son adoption a grande echelle dans differents domaines…
Et pour diminuer fortement les prix, c’est ensuite surtout une question de production a extrêmement fort volume qui pourrait permettre de diminuer drastiquement les coûts/prix, comme cela etait le cas pour les panneaux solaires photovoltaiques, les cellules de batterie pour VE,… il y a 20 ans ou 30 ans…
C’est pour ça que je pense que ce dont on a besoin, c’est d’un equivalent de Tesla (un nouvel entrant qui n’a pas d’investissement dans les anciennes technologies) qui fabriquerait a TRES fort volume des mémoires non-volatiles MRAM pour pousser Samsung, SK-Hynix, Micron… a s’y mettre aussi…
https://www.imec-int.com/en/articles/novel-sot-mram-architecture-opens-doors-high-density-last-level-cache-memory-applications
L’eau c’est plus complexe que ça, il y a plusieurs cycles. Des endroits où on ne manque pas d’eau, des endroits où on en manque. Des endroits où on tire sur des réserves qui n’ont pas le temps de se renouveler…
Du coup je pense que MS a réfléchi qu’il valait mieux mettre son usine là plutôt qu’au Chili par exemple.
Si le sujet de l’eau vous intéresse, plutôt que de donner un avis infondé, je vous conseille de regarder une conférence de Emma Haziza, hydrologue.
@Lexada
sans même aller plus loin, où est-il ecrit que l’eau est rejetée ?
si c un système de refroidissement elle devrait tourner en vase clot et idéalement la chaleur produite pourrait avoir de l’utilité ?
@raoolito
Je n’ai pas parlé de ça
Bien sûr certains data center permettent de chauffer bâtiments et piscines
@Lexada
vous avez parlé d’hydrologie
ici l’eau prélevée est stockée et ne sera ni perdu ni polluée. par contre il y aura sans doute des vidanges de temps en temps en effet
@raoolito
Je ne vois pas le rapport, l’hydrologie c’est large concernant l’eau.
@Lexada
justement ! la gestion de l’eau n’est presque pas en cause ici. elle n’est pas changé en permanence, elle est toujours la meme dans l’usine. ils auraient même pu la faire venir de très loin par camion mais aurait-ce ete mieux?
@raoolito
MS pourrait quand-même réfléchir à faire venir un iceberg… 😇
@DG33
incantations indiennes pour faire pleuvoir?
@raoolito
So local 😜
Faut que les journalistes étudient le cycle de l’eau 🙄
@dujarrier
Très intéressant! ...Comme de nombreuses variantes possibles, et de nombreuses solutions à portée de main. Malheureusement, les industries gagnent plus d'argent en restant accrochées aux méthodes "classiques"! 🤮
C'est peut-être le moment d'investir dans toute société spécialisée dans le traitement de l'eau ?
Commentaire sans aucun sens, la seul chose que fait MS c'est de chauffer de l'eau. Ca ne nécessite strictement aucun traitement!
La production d'un kilo de viande de bœuf nécessite jusqu'à 15 300 litres ,
@pariscanal
techniquement (nous discutons purement théorie) si on arrive à inverser le réchauffement climatique, le soucis de l’eau douce et même de l’acidité des océans n’existe plus.
bon on fera le point dans 100 ans car entre la théorie et la pratique…
@raoolito
A dans 100 ans 😅 j ai déjà 48 …. Voyons déjà cela sur 2/3 décennies
@pariscanal
148ans c l’age de raison en 2123 😁
on se passera nos perfusions de bière 🍻
Microsoft avait a une époque installé des data center dans la mer (ou un proto) je ne sais pas si c’est toujours d’actualité
Donné comme cela, les chiffres veulent pas dire grand chose...
Exemple type: Un smartphone utilise plus de 900 litre d'eau pour être produit...
Si Apple vend 80 millions de smartphone cela représente .... 72 milliards de litres d'eau... On ajoute la consommation des serveurs et... ben les 6,5 milliards de Microsoft ça fait pas grand chose en comparaison.
https://www.innov.energy/fr/blog-sel/production-eau-virtuelle
Si l’énergie est récupérée pour chauffer des bâtiments on presentera l’usine IA comme vertueuse, alors que pas d’usine le serait beaucoup plus. C’est toute la schizophrénie de notre développement. Croire en une vertu qui n’existe pas et continuer à tout nicker…
@giloubee:
Oui, fait un geste écologique, achète une voiture électrique...
@debione
😂💩
@debione
Le grand mythe écologique de la voiture électrique… dont le bilan carbone est souvent plus mauvais, notamment pour des véhicules qui roulent moins de 50’000km par an.
En plus, dans un pays fortement nucléarisé comme la France, on peut dire que les voitures électriques ne sont pratiquement pas durables, puisque l’électricité nucléaire ne l’est pas au sens de durable = ne pas transmettre aux générations futures l’emprise sur la planète que nécessite notre propre train de vie.
Pages