Dans notre premier article consacré à la consommation énergétique des puces, nous avons vu qu'AMD et Intel étaient contraints à une fuite en avant pour améliorer les performances de leurs processeurs. Le constat est le même pour ce qui concerne les graphismes, avec néanmoins des différences. La consommation est bien plus élevée, mais l'efficacité tend à augmenter. Ça peut sembler paradoxal, mais ça ne l'est pas, comme nous allons le voir.
Le paradoxe des graphismes
Le monde des graphismes a longtemps été un duopole du point de vue des joueurs et des professionnels : depuis le début des années 2000, deux acteurs majeurs se partagent en effet le marché dans le domaine des cartes graphiques performantes, AMD (ex-ATI) et Nvidia. Depuis peu, un troisième larron tente de venir s'amuser dans la même cour avec sa gamme Arc. Il ne s'agit de nul autre qu'Intel, qui a tout de même une expérience dans le domaine, puisque ses circuits graphiques intégrés équipent une large part des PC.
Commençons par nous intéresser aux GeForce, étant donné que Nvidia a ouvert le bal avec ses RTX 4000 en septembre. La nouvelle génération (Ada Lovelace) arrive deux ans après la précédente (Ampere) mais le rythme de lancement des cartes graphiques est particulier : les constructeurs commercialisent …