Nvidia présente les GeForce RTX 2070, RTX 2080 et RTX 2080 Ti
Quelques jours après l'annonce de sa nouvelle architecture Turing et de GPU dédiés aux professionnels, Nvidia a profité de la gamescom pour présenter ses cartes graphiques de nouvelle génération visant les joueurs.

Les GeForce RTX 2070, RTX 2080, RTX 2080 Ti vont prendre la relève des GeForce GTX 1080 et dérivées qui auront dominé le marché pendant plus de deux ans. Les RTX exploitent donc l'architecture Turing, utilisent de la GDDR6 et tirent leur nom du ray tracing, une technique de rendu 3D particulièrement lourde qu'elles sont capables de traiter en temps réel, selon Nvidia. Le fabricant fait miroiter des jeux aux graphismes ultra réalistes, et même, le mot est prononcé, « photoréalistes », mais ne précise pas le gain de performances par rapport à la génération actuelle.
En attendant des modèles plus abordables, la GeForce RTX 2070 va jouer le rôle d'entrée de gamme. Elle a 2 304 cœurs CUDA, 8 Go de RAM, et est cadencée de 1 410 à 1 620 MHz. Au-dessus, la RTX 2080 est composée de 2 944 cœurs CUDA et 8 Go de RAM. Elle est cadencée à 1 515 MHz de base et peut monter jusqu'à 1 710 MHz. La RTX 2080 Ti, le haut du panier, bénéficie pour sa part de 4 352 cœurs CUDA et 11 Go de RAM. Sa fréquence va de 1 350 MHz à 1 545 MHz.

Ces cartes seront vendues 499, 699 et 999 $ minimum respectivement. Les précommandes sont déjà ouvertes sur plusieurs sites (Materiel.net, Hardware.fr…) à des prix variables pour les RTX 2080 qui seront disponibles à partir du 20 septembre. La RTX 2070 arrivera en octobre.
Des éditions « Founders », overclockées, disposant d'un système de refroidissement à deux ventilateurs ainsi que d'un port USB-C, seront également proposées.
Contrairement à ceux d'AMD, les GPU de Nvidia ne sont pas pris en charge nativement par macOS. Cela étant, Nvidia publie ses propres pilotes graphiques pour le système d'Apple et la communauté s'emploie à rendre ses cartes utilisables en tant qu'eGPU.
Le logiciel le plus "évolué" au monde en n'a absolument pas besoin
Les loosers de chez AMD sont bien meilleurs...pour leurs prix
@fabricepsb71
? AMD, A part windows 10 microsoft devrait arrêter les cartes graphique.
@daxr1der : faut arreter la drogue dans ton cas
@vrts
+1
@vrts
Moi, je dis que c’est au même niveau que Phil lors des keynotes...
J'allais le dire !
@ fabricepsb71
Quel logiciel ?
AMD n'est pas bien meilleur que Nvidia, même pour le prix...
@Marco787
Je parlais de macOS qui n'est pas prêt de voir des pilotes Nvidia officiels Apple.
La 2080 Ti doit quand même sacrément envoyer du bois
@Il
J’ai
L
Mac users circulez, y'a rien à voir ?
Tout a fait ! Vu que l'objectif de Cook est toujours moins pour toujours plus cher, ce genre d'annonce matérielle n'a aucun rapport avec le joyeux mais coûteux et bridé monde de la pomme ...
C'est bien dommage car avec ces puces graphiques ils pourraient sortir un nouveau Mac Pro avec un tarif cookien d'entrée de gamme à 50 000 euros ! :D :D :D
Pendant ce temps, à SyrAMDcuse...
Je suis repasser sur PC pour ce genre de petits details.... :)
pour du rendu GPU, je vais pas perdre mon temps sur Mac pour le hardware (mais je prefere largement bosser sur MacOs)
À quoi peut servir le port usb-c ?
@etienne2pain
Pour un casque VR...
@etienne2pain
Pour les écrans externes
Quamd même curieux qu’ils ne pondent pas des comparaisons avec la gamme actuelle...
@0MiguelAnge0 :
Les architectures étant différentes ainsi que la manière de mesurer leurs performances, ils ont expliqués que c'était pas possible de faire des comparaisons théoriques entre Gigarays/s (Turing) et Téraflop/s (Pascal).
Vaut mieux attendre les comparaisons réelles pour démêler ce qui tiens du discours marketing et du réel.
La différence d'architectures est une excuse peu crédible : ils auraient pu sans problème comparer des benchmarks / jeux...
Je pense aussi...
@0MiguelAnge0
C’est des malins ils font du Apple, ils vendent du rêve avant des chiffres bêtement comptable qui ramène forcément les deux pieds sur terre...
Ceci étant la 2080ti bouffera très probablement n’importe quel jeu jeu 4K en 60fps et tout à fond, même pour les plus gourmands (enfin, pour ceux qui seront bien optimisés évidement)
En général, les jeux PC très gourmands ne sont pas vraiment optimisés, d'où leur besoin en ressources matérielles...
Et dire que la décennie précédente une CG haut de gamme c’était max 600€.
Maintenant cette nouvelle gamme commence à 600€..
Perso cela ne me dérange pas, j'arrive à survivre avec une génération -1 ou -2 de CG (actuellement j'ai une 980Ti)…
Pages