Nvidia présente Turing, sa nouvelle architecture parée pour le ray tracing

Stéphane Moussie |

Incontestable leader sur le marché des cartes graphiques dédiées, Nvidia veut creuser encore plus l’écart à l’aide de sa nouvelle architecture nommée Turing. L’entreprise ne tarit pas d’éloges au sujet de celle-ci, présentée tout simplement comme une « réinvention des technologies graphiques » ou encore comme « la plus grande avancée depuis l’invention de CUDA en 2006 ».

Image Nvidia.

La nouvelle architecture est censée faire la différence grâce à des RT Cores, des groupes d’unités de calcul dédiées au ray tracing, une technique qui simule le parcours de rayons lumineux jusqu’à chaque pixel d’une caméra virtuelle, permettant de reproduire des effets tels que la réflexion ou la réfraction de la lumière, ainsi que la profondeur de champ d’une optique.

Autrement dit, le ray tracing permet de produire des graphismes ultra-réalistes, au prix d’une très importante puissance de calcul. Selon Nvidia, Turing accélère jusqu’à 25 fois les opérations de ray tracing par rapport à l’architecture Pascal.

Une Quadro RTX 8000 est capable de calculer toute seule en temps réel cette démo en ray tracing, selon Nvidia.

Les RT Cores sont secondés par les Tensor Cores, qui faisaient déjà partie de l’architecture Volta et qui servent également à accélérer les opérations d’intelligence artificielle. Ensemble, ces deux types d’unités permettent de calculer en temps réel des scènes 3D exploitant le ray tracing, souligne Nvidia, qui affirme aussi que c’est une première.

L’architecture Turing va prendre place dans trois cartes destinées aux professionnels — Quadro RTX 8000, RTX 6000 et RTX 5000 — qui seront en vente au dernier trimestre à partir de 2 300 $ jusqu’à 10 000 $. Quant aux joueurs qui attendent avec impatience les GeForce Turing, celles-ci seront dévoilées très prochainement à la Gamescom. Et au cas où ça vous aurait échappé, rappelons qu'Apple privilégie depuis des années les GPU d'AMD pour ses machines.

avatar oomu | 

« la plus grande avancée depuis l’invention de CUDA en 2006 »

la peur des superlatifs, c'est pour les faibles !

avatar Jef-67 | 

C'est assez triste de voir Apple continuer à utiliser AMD ...

avatar oomu | 

" Et au cas où ça vous aurait échappé, rappelons qu'Apple privilégie depuis des années les GPU d'AMD pour ses machines."

et je continue de penser que c'est une erreur funeste.

enfin.. si c'est une erreur, du point de vue d'Apple, c'est manifestement pas visible, genre à long terme, très long terme, houlalala long terme...

mais tant pis. pour ce qui me concerne, AMD n'est pas satisfaisant.

avatar Soner | 

@oomu

La seule explication c’est sûrement le coût. Les puces AMD doivent coûter une bouchée de pain.

avatar flux_capacitor | 

@Soner

Et ? Les Mac ne sont-ils pas conçus comme des "Ferrari" (ou "Rolls" etc) tant du point de vue du design, que de l'intégration ou de la minutie et soin extrêmes apportés aux détails, ou même ne serait-ce que concernant le prix de vente ? C'est quoi cette culture de fourguer des moteurs GPU anémiques et dépassés sous le capot ?

Non seulement les GPU AMD sont complètement à la ramasse en perfs brutes par rapport à NVIDIA depuis des années, mais ils ne sont mêmes pas bons selon le ratio performance/watt cher à Steve Jobs !

avatar Soner | 

@flux_capacitor

Du calme mon bon monsieur! J’ai pas dis que c’était bien. J’ai dit que c’était l’explication la plus plausible.

Moi même je regrette qu’une marque qui se dit proposer le top du top (et le fasse payer) travaille avec un fournisseur à la ramasse si je puis dire.

Bonne journée :)

avatar malcolmZ07 | 

@Soner

Les gpu est le plus gros point faible des Mac

avatar en ballade | 

@malcolmZ07

Tu oublies le clavier, l’écran glossy, la colle etc

avatar melaure | 

Et comment tu veux mettre ça dans des Macs, qui sont aussi fin qu'une tranche de pain ??? Les Macs sont fait pour générer un max de pognon, pas pour vous donner les perfs et l'équipement que vous voulez !!!

Si vous rêvez d'un Mac sous NVidia, il faut oublier le format feuille d'alu et déjà virer Cook/Ive ...

avatar pocketalex | 

@melaure, en ballade, malcolm, flux_capacitor

Les haters sont de sortie

Du coup, d'un coup de baguette magique, les RX580 et les Vega devient, en 2 commentaires d'aigris, des GPU incapable de permettre le moindre début de travail sur la moindre tache, alors que les nVidia, c'est des avions de chasse pour professionnels aguerris

On outre-passe les 5% de différence constatés dans les benchs, et le fait que les GPU ne servent qu'a une minorité des utilisateurs, aussi que les GPU intégré dans les MBP, iMac et iMac Pro accélèrent parfaitement la majorité des logiciels pro, tout cela sont des considérations un peu gênantes dans l'argumentaire des frustrés de la vie dont le seul objectif, de cette brochette de pathétiques asociaux, est d'avoir la "plus grosse" dans sa machine, histoire de .... avoir la plus grosse.

Pour ma part, je serais très heureux que nVidia retrouve les faveurs d'Apple, je pense qu'il n'y a aucune raison valable de laisser AMD comme seul marque de GPU dans les Macs, mais je n'en conclu pas pour autant que AMD c'est tout de la merde et nVidia c'est tout formidable. Essentiellement parceque c'est faux, et c'est une immense connerie.

avatar flux_capacitor | 

@pocketalex

Je ne suis pas un "hater" bien au contraire… bonjour les jugements à l'emporte-pièce !

Et je ne pense pas forcément aux "grosses" cartes graphiques… au contraire je pensais à des ordinateurs bien optimisés, qui ne font pas forcément des bruits de turbine à pleine charge.
Prenons par exemple chez NVIDIA les GeForce 1050 Ti, au TDP de 75W, très bien équilibrées.
En face, les AMD série Polaris (par exemple la RX 480 avec ses 90 watts… mais également la RX 560 : 90W également !) ont un TDP tellement catastrophique qu'il en viole la limite maximale de 75 watts par slot imposée par la norme PCIe.
À tel point que pour avoir une carte graphique compétitive quand on monte un PC fanless (je pense surtout hackintosh en fait) à la fois pas trop pourrie et bon marché, chez AMD on est obligé d'avoir recours à des versions spéciales particulièrement downclockées donc pas très véloces, comme la RX 560 Pulse ITX. Au-delà, oubliez les 570 ou 580 : le TDP devient n'importe quoi. C'est clairement un problème.

avatar nicolas | 

@oomu

AMD a un train de retard, mais ils ne sont pas complètement à la rue. L’argent gagné avec les consoles et les mineurs de monnaies le permet de rester en course et de développer activement leur GPU.
Et ils ont des drivers ouvert. D’ailleurs, il me semble qu’ils ont présenté des choses autour du RayTracing cette année. Pas aussi poussé qu’nVidia certes.

avatar Almux | 

Exact: grand temps qu'Apple ouvre ses portes à Nvidia... AMD n'arrive déjà pas à la cheville de CUDA, alors s'il y a encore plus fort, le Mac sera définitivement largué dans la création d'animation 3D (...et je ne parle pas de la grosse prod, qui ne peut plus vraiment bosser su Mac).
C'est très dommage, quand d'excellents outils manquent le coche dans un domaine aussi important.
Mais bon, Apple s'est trop centré sur une moyenne d'utilisateurs. Elle oublie que, comme pour la formule 1, ce sont les techniques de pointe qui tirent le reste en avant!

avatar Benitochoco | 

@Oomu

Depuis des décennies il y a ce débat, AMD ou Nvidia. Aujourd'hui tu as le eGPU, l'affaire est dans le sac. Les cibles d'Apple sont simples, l'utilisateur qui a pas envie de galères en informatique, et le mec qui bosse avec sa machine outil.

Pour ma partie, les rendus 3D sont externalisés, donc bosser sur Nvidia ou AMD, peu importe au fond. Apple l'a d'ailleurs bien compris.

avatar johnios | 

Les pilotes Nvidia pascal sont toujours en beta sous macOS 10.13, donc des pilotes macOS pour Turing ce ne sera surement pas avant 2 ou 3 ans... après il y a toujours la solution bootcamp

avatar domtom93 | 

Pour noël je vais demander une jolie carte graphique à 10 000€ ..?

avatar Napoba | 

AMD ou comment mettre des radiateurs graphiques dans des ordinateurs qui ont de plus en plus de mal à évacuer la chaleur du fait de leur finesse.
Qu’est-ce que l’appât du gain ne fait pas faire à Apple et ses actionnaires.
Machine à 5000€ avec une carte graphique qui n’est pas foutue de jouer à un jeu à la résolution de l’écran ( sauf les jeux s’il y a dix ans bien sur)

avatar 0MiguelAnge0 | 

@Napoba

De quoi tu te plains: les MB Pro sont super fins et pour garder cette logique, Apple pousse au eGPU histoire d’avoir une enclume à côté du machin top design de Ives!

Ou pas...

avatar pommedor | 

> Machine à 5000€ avec une carte graphique qui n’est pas foutue de jouer à un jeu à la résolution de l’écran ( sauf les jeux s’il y a dix ans bien sur)

Apple maitrise tellement bien la partie software, que le même gpu sous windows fait bien mieux en perf et ne galère pas autant. Avec les CG nVidia c'était la même merde déjà, mais bon ça doit être la faut d'amd pour ca aussi. :)

avatar Napoba | 

@pommedor

Je suis d’accord sauf que contrairement à nvidia, Apple ou amd ne fournissent aucun pilote pour les GPU du coup on a un pilote mal optimisé pour Mac et on parle pas de celui PC, qui restera toute la vie de la machine car jamais mis à jour

avatar pommedor | 

Windows 10 met les pilotes de CG à jour tout seul et les panels ont l'option cochée par défaut le plus souvent. Puis même un "vieux" pilote graphique windows fait toujours mieux que celui d'osx à jour. :)

avatar Napoba | 

@pommedor

Pas d’accord
Il n’existe aucun pilote Windows pour les carrés graphiques AMD dans les Mac.
A chaque fois que tu les télécharge, l’installateur te dis qu’il ne détecte aucune carte graphique compatible !

avatar Nathanael_Mtd | 

C'est pour ça que BootcampDrivers existe : https://www.bootcampdrivers.com

avatar ashurao | 

Il y a de grande chance que la question du coût fasse partie des raisons qui ont poussé Apple vers AMD.
Mais au début du divorce, les cartes AMD étaient bien meilleures … en OpenCl.
Mais ça, c’étaient avant.
Aujourd’hui, Apple veut faire des ordi toujours plus fin, donc avec des capacités des refroidissements toujours plus limités, non? Alors pourquoi rester avec AMD?
La Vega 64 consomme bien plus qu’une 1080ti tout en étant moins performante.
A consommation égale, les AMD sont moins performantes que les NVIDIA, alors pourquoi rester avec le moins bon. Si Apple faisait encore des ordi « camions », mais avec des machines aussi exiguës que l’iMac, qui n’est qu’un gros transportable finalement, pourquoi continuer à utiliser les cartes qui consomment et chausse le plus?
Après, Apple et Nvidia sont concurrents sur les véhicules autonomes, Nvidia a tenté de rentrer sur le marché des tablettes et smartphones. Ce sont peut-être des raisons qui font parties du désaccord entre les 2 firmes.
Et j’ai lu quelque part que Nvidia était un partenaire commercial du genre intraitable. Si c’est vrai, c’est pas étonnant qu’avec Apple, qui est pareil, le courant ne passe pas.

avatar Almux | 

Apple ferait bien de proposer de nouveaux "camions"... et ceci d'urgence!

Pages

CONNEXION UTILISATEUR