Chaud devant (2/2) : des GPU plus énergivores, mais nettement plus puissants

Pierre Dandumont |

Dans notre premier article consacré à la consommation énergétique des puces, nous avons vu qu'AMD et Intel étaient contraints à une fuite en avant pour améliorer les performances de leurs processeurs. Le constat est le même pour ce qui concerne les graphismes, avec néanmoins des différences. La consommation est bien plus élevée, mais l'efficacité tend à augmenter. Ça peut sembler paradoxal, mais ça ne l'est pas, comme nous allons le voir.

Le paradoxe des graphismes

Le monde des graphismes a longtemps été un duopole du point de vue des joueurs et des professionnels : depuis le début des années 2000, deux acteurs majeurs se partagent en effet le marché dans le domaine des cartes graphiques performantes, AMD (ex-ATI) et Nvidia. Depuis peu, un troisième larron tente de venir s'amuser dans la même cour avec sa gamme Arc. Il ne s'agit de nul autre qu'Intel, qui a tout de même une expérience dans le domaine, puisque ses circuits graphiques intégrés équipent une large part des PC.

Commençons par nous intéresser aux GeForce, étant donné que Nvidia a ouvert le bal avec ses RTX 4000 en septembre. La nouvelle génération (Ada Lovelace) arrive deux ans après la précédente (Ampere) mais le rythme de lancement des cartes graphiques est particulier : les constructeurs commercialisent d'abord les puces les plus rapides, avant de décliner l'architecture vers le bas et de revenir de temps en temps dans le haut de gamme pour couvrir tous les segments. Plus clairement, Nvidia avait lancé les RTX 3090, 3080 et 3070 à l'automne 2020, les RTX 3060 et 3060 Ti début 2021, puis des variantes plus rapides des 3070 et 3080 au printemps 2021, avant l'entrée de gamme (3050) début 2022 et enfin une RTX 3090 Ti très rapide mi-2022.

avatar Gravoche67 | 

Linda Lovelace ?

avatar flafarge | 

Moi je dirais, des GPU plus puissants, mais nettement plus énergivores… question d’époque 😁 ?

avatar cecile_aelita | 

Article vraiment intéressant 🙂.

« mais encore une fois deux voies sont possibles : tenter d'améliorer les performances de façon substantielle (au détriment de la consommation) ou améliorer l'efficacité et rester sur une position dans un entre-deux, avec une puissance de calcule correcte (mais pas extraordinaire) et une consommation faible »

En espérant vraiment que ce soit la 2eme voix qui se généralise (et pas que pour Apple idéalement) 🙂.

avatar raoolito | 

Excellente petite serie d'articles, merci pierre 🙏

avatar amonbophis | 

À voir le résultat de resident evil, les processeurs graphiques des m1 -m2 ne déméritent pas, et pourraient permettre de bons jeux avec un équivalent de carte milieu de gamme.

Par contre si Apple veut s’adresser aux professionnels de la video/photo via son futur Mac Pro, n’est il pas possible d’imaginer une troisieme voie par une carte graphique dédiée ? Est ce que les processeurs graphiques des m2 deportés permettraient de s’affranchir des limites du tout-en-un-sur-une-puce et donc d’approcher la puissance des 4090 tout en consommant moins?

avatar Faabb | 

@amonbophis

Oui, est-ce que les Mac pros permettront d’accueillir à nouveau des cartes AMD ?
C’est assez fou d’imaginer qu’une seule carte graphique haut de gamme consomme quasiment 2x plus que l’ordi tout entier.
C’est une prouesse d’Apple !

avatar Macbook31 | 

Bonsoir,

Je viens de vendre ce soir mon ancien pc (i5 8700k, nvidia 1080, 32 go de ram). Mon pc de remplacement : i5 13600 k, nvidia 4090, 32 go de ram.les deux branchés sur deux écrans en qvga.

J’ai pour la première fois mis côte à côte, ou face à face, les deux ordis, sur ms flight SIM 2020, en l’occurrence le vol découverte sur Paris en dr400.

Pour faire simple : le deuxième met une fessée continentale au premier, logique.

Il faut savoir que Paris y est représentée de manière photoréaliste.
A résolution identique, Paris est beaucoup, mais alors beaucoup plus propre.
La deuxième chose qui choque est la qualité des nuages…beaucoup plus réalistes sur la 4090.
La troisième : le temps de chargement. Il est beaucoup plus long sur la 4090 ( les réglages graphiques sont tout à fond partout, géré par GeForce expérience(il me semble que c’est le nom de l’app) quand on est plutôt sur bas avec la 1080.
De manière plus générale, aux amateurs de simulateur de vol : fs 2020 est un jeu gourmand, il ne faut pas lésiner sur la configuration si on le peut.

avatar Hoooti | 

Sympa ces 2 articles.
Ça illustre bien ce qu’on observe dans tous les domaines : on a des technologies qui consomment de moins en moins (écran, ampoule, etc) , mais dont le nombre explose donc la facture totale augmente.
On dirait une addiction sociétale : toujours plus, plus vite , plus loin.
Mais nos besoins dans tout ça ?
Bref, je vous laisse admirer vos nuages photorealiste 8K en Ray Tracing, moi je vais ouvrir un peu la fenêtre.

avatar Macbook31 | 

@Hoooti

Ne vous inquiétez pas pour moi, je prends mon bol d’air (et de flotte, en ce moment) toute la journée du lundi au samedi.

avatar totoguile | 

Sympa comme article !
Il me semblait que le choix d'Apple d'unifier la mémoire entre le CPU et le GPU permettait également un gros gain de perfs (éviter la copie de shaders/textures) tout en consommant moins.
Finalement, si Apple ajoutait des cores GPU, à nombre de core équivalent à une Nvidia, est-ce que l'architecture ne serait pas déjà plus rapide ?

avatar Pierre Dandumont | 
Sur la mémoire, c'est un peu particulier : on a des technos dans les PC qui permettent de régler (un peu) la copie, même si le bus PCIe est moins rapide qu'une mémoire unifiée. Après, le nombre de coeurs, c'est subjectif parce que pas vraiment comparable. Apple pourrait faire une puce plus grosse, c'est évident, mais ça augmente le prix et la complexité. En l'état, un M1 Max fait 425 mm2, le GPU de la RTX 4090 fait 608 mm2. Donc même si Apple mettait ~30 % de transistors en plus, on resterait assez loin de Nvidia, vu qu'il y a un rapport ~4 actuellement.
avatar totoguile | 

@Pierre Dandumont

Oui effectivement et la taille va devenir un problème. en 5/4nm, le die max est de 26mmx23mm soit 858mm2 et en 3nm (ou 2) on va diviser par 2 (26mm par 16,5mm) soit 429mm2.
On arrive à un "nouveau" problème pour Apple, l'utilisation de chiplet et de technos comme CoWoS etc... c'est utilisé pour les MxUltra, ce ne serait pas surprenant de voir arriver cette configuration sur des gammes inférieures dans le futur.

"Current i193 and EUV lithography steppers have a maximum field size of 26 mm by 33 mm or 858 mm². In future High-NA EUV lithography steppers the reticle limit will be halved to 26 mm by 16,5 mm or 429 mm² due to the use of an amorphous lens array."

avatar totoguile | 

@totoguile

D'ailleurs ca pourrait être cool qu'Apple muscle encore Apple Arcade et sorte un processeur type M1/M2 mais avec bcp bcp de cores GPU :)

avatar XiliX | 

Merci Pierre...
Des articles très techniques bien expliqués

CONNEXION UTILISATEUR