L'essor des IA pourrait créer une nouvelle pénurie de GPU

Pierre Dandumont |

Depuis quelques années, le marché des cartes graphiques a un problème de pénurie. Les raisons sont multiples et vont de l'essor des cryptomonnaies à une demande en forte hausse à cause des différents confinements ou de la sortie de consoles… et ce n'est pas fini. En effet, la montée en force des IA amène une demande assez élevée sur ce marché.

Un entraînement coûteux, un déploiement qui l'est encore plus

Un article de Forbes s'intéresse en effet aux coûts de ces technologies, et il est astronomique. La création des données employées par ChatGPT (l'entraînement) aurait nécessité environ 10 000 cartes graphiques Nvidia, un volume déjà conséquent. Mais une estimation sur le nombre de GPU exigé pour fournir les réponses aux utilisateurs donne le tournis : si Google devait recourir à des GPU pour répondre aux requêtes via l'IA, il faudrait un peu plus de 4 000 0001 de cartes graphiques A100, qui se négocient aux alentours de 20 000 € (dès 15 000 € pour la version 40 Go, si le cœur vous en dit). Le total dépasserait les 100 milliards de dollars, dont une bonne partie retomberait dans les poches de Nvidia.

OpenAI utilise beaucoup de GPU.

Les NPU ne règlent pas les choses

L'article de Forbes évoque les expérimentations dans le domaine des NPU — Neural Processing Unit, les puces dédiées aux calculs liés à l'IA — comme celles présentes dans les iPhone depuis quelques années. Sur le papier, le développement des NPU permet une meilleure efficacité que les GPU car ils sont pensés pour un usage précis. En effet, même les cartes les plus haut de gamme de Nvidia ne réservent qu'une partie des transistors à cet usage et gardent des fonctions liées aux calculs classiques. Mais en pratique, les cartes graphiques conservent l'avantage d'une puissance élevée — une puce Nvidia A100 atteint 624 TOPs contre 17 pour un A16 — et la généralisation des TPU risque d'amener le même problème de pénurie.

Une « carte graphique » A100, qui n'a même pas de sortie vidéo.

De fait, les pénuries de composants ne sont pas attachées au type de produits directement, mais plutôt aux capacités de production. Pour un volume identique chez les grands fondeurs2, fabriquer des GPU ou des NPU ne change pas réellement la donne. Si une partie de l'offre part vers les NPU plutôt que les GPU ou si une partie des GPU part vers les serveurs, le résultat est à peu près le même sur le marché : il y a moins de cartes graphiques dans les étals.

La question principale, à laquelle il est difficile de répondre, vient de la manière dont les grands noms du secteur vont déployer les technologies. Selon SemiAnalysis, Google a par exemple utilisé des modèles moins étendus pour Bard, probablement pour réduire les coûts.


  1. 512 820 serveurs, 4 102 568 cartes.  ↩︎

  2. Essentiellement TSMC actuellement.  ↩︎

Tags
avatar Scooby-Doo | 

@fte,

« J’ignore à ce stade si Apple a vu venir la tempête. Google soi-même semble avoir manqué quelques bulletins météo, pourtant bien plus actif dans ce domaine qu’Apple…

Apple arrivera-t’elle à exister dans ce domaine ? Je pense que ce n’est pas gagné… »

Excellente question et malheureusement ne travaillant pas au sein de l'équipe dirigeante d'Apple, je vais avoir beaucoup de mal à vous répondre.

Alors ma réponse sera mon opinion de la situation !

1. Il est difficile de croire un instant que Google ou Apple n'ait pas vu venir la tempête comme vous le dites parce que là on parle d'une dépression cyclonique comme on en voit une fois tous les 30 ans.

2. L'informatique américaine est un microcosme. Ce que fait l'un, les autres le savent plus ou moins !

3. Apple malgré tout a pris le virage de la meilleure puissance pour la meilleure efficacité énergétique en choisissant ARM.

4. Il est possible que Google ou Apple connaissant parfaitement les difficultés techniques de production à grande échelle d'une IA pouvant analyser une question et y répondre en langage naturel, ils se sont dit : personne n'osera mettre cela en production, tout au plus en laboratoire pour voir les évolutions !

5. OpenAI arrive sur ce marché. Cela tombe bien Microsoft travaille depuis des années sur ce sujet (au moins à partir de 2018 puisqu'une démonstration publique a lieu). N'oubliez pas que OpenAI a produit ChatGPT 3.5 mais Bing Prométhée Ce n'est pas ChatGPT 4.0. Microsoft a amélioré son moteur interne grâce aux travaux et solutions de OpenAI.

6. Google a-t-il raté le train de l'IA appliquée aux recherches sur Internet ? Difficile d'y répondre avec certitude puisque Bard existe ! Rien ne dit que Google ne va pas répondre à Microsoft. L'alerte rouge lancé en interne chez Google démontre bien que cela les inquiètent.

7. Apple a-t-elle raté ce train ? Je dirais un peu comme celui des joueurs sur Mac ! Ni la priorité, ni l'objectif secondaire d'Apple. C'est tout simplement un marché qui ne l'intéresse pas (officiellement).

8. Apple peut-elle y répondre à l'avenir ? Rien ne s'y oppose mais va falloir considérablement renforcer la puissance des Apple Silicon d'un facteur 20 à 30 si elle veut être compétitive ! Peu probable ni souhaitable ! Cela va à l'encontre de la politique même d'Apple concernant ses Apple Silicon: sobriété énergétique pour une excellente endurance des batteries par exemple.

9. Apple a-t-elle une solution pour ses utilisateurs ? Oui c'est techniquement possible mais pas en local ! Utiliser la puissance IA du cloud d'un fournisseur tiers comme Google ou Microsoft par exemple.

10. Apple peut-elle intégrer une IA dans Mac OS comme Microsoft avec Windows 11 ou 12 ?

Il faut des processeurs très puissants en local pour faire cela ou des unités spécifiques, un peu à l'image des DSP embarqués sur carte mère puis dans les processeurs pour faire des traitements audios accélérés.

Sur PC vous avez des cartes graphiques puissantes mais c'est plutôt une minorité d'ordinateurs qui en sont équipées !

Il faudrait des unités NPU embarquées. Cela tombe bien, Apple Silicon en a. Pas suffisamment puissante pour cela mais c'est un bon début !

👍

PS : attendez le nouveau Mac Pro pour critiquer Apple ! Merci pour votre patience.

Pages

CONNEXION UTILISATEUR