Nvidia présente les GeForce RTX 2070, RTX 2080 et RTX 2080 Ti
Quelques jours après l'annonce de sa nouvelle architecture Turing et de GPU dédiés aux professionnels, Nvidia a profité de la gamescom pour présenter ses cartes graphiques de nouvelle génération visant les joueurs.
Les GeForce RTX 2070, RTX 2080, RTX 2080 Ti vont prendre la relève des GeForce GTX 1080 et dérivées qui auront dominé le marché pendant plus de deux ans. Les RTX exploitent donc l'architecture Turing, utilisent de la GDDR6 et tirent leur nom du ray tracing, une technique de rendu 3D particulièrement lourde qu'elles sont capables de traiter en temps réel, selon Nvidia. Le fabricant fait miroiter des jeux aux graphismes ultra réalistes, et même, le mot est prononcé, « photoréalistes », mais ne précise pas le gain de performances par rapport à la génération actuelle.
En attendant des modèles plus abordables, la GeForce RTX 2070 va jouer le rôle d'entrée de gamme. Elle a 2 304 cœurs CUDA, 8 Go de RAM, et est cadencée de 1 410 à 1 620 MHz. Au-dessus, la RTX 2080 est composée de 2 944 cœurs CUDA et 8 Go de RAM. Elle est cadencée à 1 515 MHz de base et peut monter jusqu'à 1 710 MHz. La RTX 2080 Ti, le haut du panier, bénéficie pour sa part de 4 352 cœurs CUDA et 11 Go de RAM. Sa fréquence va de 1 350 MHz à 1 545 MHz.
Ces cartes seront vendues 499, 699 et 999 $ minimum respectivement. Les précommandes sont déjà ouvertes sur plusieurs sites (Materiel.net, Hardware.fr…) à des prix variables pour les RTX 2080 qui seront disponibles à partir du 20 septembre. La RTX 2070 arrivera en octobre.
Des éditions « Founders », overclockées, disposant d'un système de refroidissement à deux ventilateurs ainsi que d'un port USB-C, seront également proposées.
Contrairement à ceux d'AMD, les GPU de Nvidia ne sont pas pris en charge nativement par macOS. Cela étant, Nvidia publie ses propres pilotes graphiques pour le système d'Apple et la communauté s'emploie à rendre ses cartes utilisables en tant qu'eGPU.
Ça paraît peut-être anodin pour beaucoup de monde, mais en ce qui me concerne, ce qui a le plus d’intérêt dans ce renouvellement est le passage de GTX à RTX.
Il y a certes beaucoup de marketing, mais ça reste un indicateur majeur d’une nouvelle approche du rendu et de la conception des GPUs. C’est juste le premier pas dans une nouvelle direction.
C’est très intéressant, je trouve. Bien plus que ne l’aurait été la même carte que maintenant mais deux fois plus rapide. Same old shit but faster. Et bien non. C’est très cool.
J’en ai des frissons.
NVIDIA RTX and GameWorks Ray Tracing Technology Demonstration :
https://youtu.be/tjf-1BxpR9c
Le Mac est complètement largué
@en ballade
Définis largué.
Les usages visés par Apple n’ont que très marginalement besoin d’une carte graphique mieux que médiocre. Si tu as besoin d’une carte extrême, tu as besoin d’une machine extrême. On n’achète pas un aspirateur industriel chez Electrolux.
@ fte
Pouvez-vous préciser ?
Apple vise aussi les pro de l'édition video (entre autres), qui ont besoin d'un processeur graphique digne de ce nom.
Les iMac 27", iMac Pro et MBP 15" sont équipés de cartes moyen de gamme à haut de gamme.
@Marco787
"Les iMac 27", iMac Pro et MBP 15" sont équipés de cartes moyen de gamme à haut de gamme."
Moyen, certes. Haut, que nenni.
Les iMac Pro ont accès aux Vega 64, ce qui est considéré comme haut de gamme (ce qui n'est pas le summum, loin s'en faut puisqu'il existe au dessus du "très haut" de gamme).
@Marco787
"ce qui est considéré comme haut de gamme"
Par qui ? Cryptominers ?
Pour les jeux video (application clé de ces cartes).
Et je dirais même plutôt très haut de gamme, car la Vega 64 est l'équivalent d'une GTX 1080.
La Vega 54 est haut de gamme.
Pages