La pénurie de mémoire vive et de mémoire flash, qui touche essentiellement les approvisionnements en RAM actuellement, va aussi toucher les cartes graphiques, mais probablement dans quelques semaines. Pour le moment, même si les cartes graphiques contiennent parfois beaucoup de RAM (un bon modèle pour les joueurs doit dans l'idéal intégrer 16 Go de mémoire vidéo), les tarifs n'ont pas encore réellement augmenté.
Le marché des cartes graphiques dédiées est un peu particulier. Premièrement, il comprend essentiellement deux acteurs au niveau mondial : Nvidia et AMD. Intel est un nain dans ce domaine, avec des parts de marché proches de zéro, et en dehors de la Chine qui tente d'entrer dans ce domaine, il n'y a pas réellement de fabricants de composants tiers. Deuxièmement, jusqu'à maintenant, l'approvisionnement en mémoire dépendait souvent des concepteurs de GPU. Jusqu'il y a peu, un fabricant de cartes graphiques (prenons Asus, par exemple) achetait un GPU (le composant) et la mémoire à Nvidia, qui se fournissait chez des fabricants de mémoire. Mais la société a annoncé récemment qu'elle allait arrêter de le faire, et laisser les fabricants des cartes se procurer la mémoire. Un choix qui va avoir un impact direct : un tarif plus élevé. Nvidia obtenait évidemment des prix de gros avec des contrats à long terme.

Selon Videocardz, ce sont les contrats en question qui ont permis de décaler la hausse. Tant AMD que Nvidia avaient des contrats à long terme, qui permettent d'obtenir des puces de mémoire à un prix défini en amont, pour éviter les variations brutales. Mais les contrats de Nvidia se termineraient en janvier 2026 et ceux d'AMD en décembre 2025. Compte tenu de la conjoncture, et en prenant en compte les changements opérés par Nvidia sur la mémoire, il est donc probable que les prix augmentent de façon importante dès janvier 2026 (pour AMD) et février 2026 (pour Nvidia).
Quel pourrait être l'impact de la RAMpocalypse sur Apple ?
Un problème de rentabilité pour Nvidia
Au-delà du prix de la mémoire, qui ne représente qu'une partie du prix d'une carte graphique, Nvidia pourrait réduire sa production de GPU de 30 à 40 % en 2026, visiblement essentiellement sur les puces d'entrée de gamme. Et c'est assez logique : elles sont beaucoup moins rentables que les autres, même si elles se vendent plus en théorie. La raison est simple : le coût d'un wafer (le bloc de base sur lequel sont gravées les puces) est fixe, tout comme sa surface. Une estimation approximative permet de voir qu'un mm2 sur un wafer rapporte un peu moins de 0,4 $ avec le GPU d'une GeForce RTX 5060, mais que la puce d'une RTX 5080, elle, s'approche de 1 $. Le GPU est en effet plus gros (il nécessite plus de mm2) mais les cartes sont plus onéreuses. Sur les cartes destinées au monde professionnel, les gains sont plus importants : plus de 4 $ pour une RTX 6000 et même plus de 10 $ pour les cartes de la famille B200, prisées dans les serveurs dédiés à l'IA. Pour Nvidia, produire moins de puces d'entrée de gamme permet donc de se concentrer sur le haut de gamme et le monde professionnel, bien plus rentables.

Il reste une question, à laquelle il est difficile de répondre : quel va être l'ampleur de la hausse ? Une carte graphique ne contient pas que de la mémoire vive, et le coût de cette dernière ne représente qu'une partie du prix total d'une carte. Mais si Nvidia réduit sa production, que chaque fabricant de cartes doit se procurer sa mémoire et que les prix augmentent, les hausses risquent d'être importantes dans un marché qui a déjà été fragilisé par des pénuries et des hausses importantes au fil des années (notamment liées à l'explosion des cryptomonnaies). Et si certains joueurs ont réussi à accepter qu'une carte (très) haut de gamme puisse atteindre 3 000 €, ils ne sont pas nécessairement prêts à ce que les cartes milieu de gamme (comme les GeForce RTX 5070) se retrouvent à 1 000 €… et c'est pourtant un des scénarios envisagés.















