Nvidia présente Turing, sa nouvelle architecture parée pour le ray tracing

Stéphane Moussie |

Incontestable leader sur le marché des cartes graphiques dédiées, Nvidia veut creuser encore plus l’écart à l’aide de sa nouvelle architecture nommée Turing. L’entreprise ne tarit pas d’éloges au sujet de celle-ci, présentée tout simplement comme une « réinvention des technologies graphiques » ou encore comme « la plus grande avancée depuis l’invention de CUDA en 2006 ».

Image Nvidia.

La nouvelle architecture est censée faire la différence grâce à des RT Cores, des groupes d’unités de calcul dédiées au ray tracing, une technique qui simule le parcours de rayons lumineux jusqu’à chaque pixel d’une caméra virtuelle, permettant de reproduire des effets tels que la réflexion ou la réfraction de la lumière, ainsi que la profondeur de champ d’une optique.

Autrement dit, le ray tracing permet de produire des graphismes ultra-réalistes, au prix d’une très importante puissance de calcul. Selon Nvidia, Turing accélère jusqu’à 25 fois les opérations de ray tracing par rapport à l’architecture Pascal.

Une Quadro RTX 8000 est capable de calculer toute seule en temps réel cette démo en ray tracing, selon Nvidia.

Les RT Cores sont secondés par les Tensor Cores, qui faisaient déjà partie de l’architecture Volta et qui servent également à accélérer les opérations d’intelligence artificielle. Ensemble, ces deux types d’unités permettent de calculer en temps réel des scènes 3D exploitant le ray tracing, souligne Nvidia, qui affirme aussi que c’est une première.

L’architecture Turing va prendre place dans trois cartes destinées aux professionnels — Quadro RTX 8000, RTX 6000 et RTX 5000 — qui seront en vente au dernier trimestre à partir de 2 300 $ jusqu’à 10 000 $. Quant aux joueurs qui attendent avec impatience les GeForce Turing, celles-ci seront dévoilées très prochainement à la Gamescom. Et au cas où ça vous aurait échappé, rappelons qu'Apple privilégie depuis des années les GPU d'AMD pour ses machines.

avatar oomu | 

« la plus grande avancée depuis l’invention de CUDA en 2006 »

la peur des superlatifs, c'est pour les faibles !

avatar Jef-67 | 

C'est assez triste de voir Apple continuer à utiliser AMD ...

avatar oomu | 

" Et au cas où ça vous aurait échappé, rappelons qu'Apple privilégie depuis des années les GPU d'AMD pour ses machines."

et je continue de penser que c'est une erreur funeste.

enfin.. si c'est une erreur, du point de vue d'Apple, c'est manifestement pas visible, genre à long terme, très long terme, houlalala long terme...

mais tant pis. pour ce qui me concerne, AMD n'est pas satisfaisant.

avatar Soner | 

@oomu

La seule explication c’est sûrement le coût. Les puces AMD doivent coûter une bouchée de pain.

avatar flux_capacitor | 

@Soner

Et ? Les Mac ne sont-ils pas conçus comme des "Ferrari" (ou "Rolls" etc) tant du point de vue du design, que de l'intégration ou de la minutie et soin extrêmes apportés aux détails, ou même ne serait-ce que concernant le prix de vente ? C'est quoi cette culture de fourguer des moteurs GPU anémiques et dépassés sous le capot ?

Non seulement les GPU AMD sont complètement à la ramasse en perfs brutes par rapport à NVIDIA depuis des années, mais ils ne sont mêmes pas bons selon le ratio performance/watt cher à Steve Jobs !

avatar Soner | 

@flux_capacitor

Du calme mon bon monsieur! J’ai pas dis que c’était bien. J’ai dit que c’était l’explication la plus plausible.

Moi même je regrette qu’une marque qui se dit proposer le top du top (et le fasse payer) travaille avec un fournisseur à la ramasse si je puis dire.

Bonne journée :)

avatar malcolmZ07 | 

@Soner

Les gpu est le plus gros point faible des Mac

avatar en ballade | 

@malcolmZ07

Tu oublies le clavier, l’écran glossy, la colle etc

avatar melaure | 

Et comment tu veux mettre ça dans des Macs, qui sont aussi fin qu'une tranche de pain ??? Les Macs sont fait pour générer un max de pognon, pas pour vous donner les perfs et l'équipement que vous voulez !!!

Si vous rêvez d'un Mac sous NVidia, il faut oublier le format feuille d'alu et déjà virer Cook/Ive ...

avatar pocketalex | 

@melaure, en ballade, malcolm, flux_capacitor

Les haters sont de sortie

Du coup, d'un coup de baguette magique, les RX580 et les Vega devient, en 2 commentaires d'aigris, des GPU incapable de permettre le moindre début de travail sur la moindre tache, alors que les nVidia, c'est des avions de chasse pour professionnels aguerris

On outre-passe les 5% de différence constatés dans les benchs, et le fait que les GPU ne servent qu'a une minorité des utilisateurs, aussi que les GPU intégré dans les MBP, iMac et iMac Pro accélèrent parfaitement la majorité des logiciels pro, tout cela sont des considérations un peu gênantes dans l'argumentaire des frustrés de la vie dont le seul objectif, de cette brochette de pathétiques asociaux, est d'avoir la "plus grosse" dans sa machine, histoire de .... avoir la plus grosse.

Pour ma part, je serais très heureux que nVidia retrouve les faveurs d'Apple, je pense qu'il n'y a aucune raison valable de laisser AMD comme seul marque de GPU dans les Macs, mais je n'en conclu pas pour autant que AMD c'est tout de la merde et nVidia c'est tout formidable. Essentiellement parceque c'est faux, et c'est une immense connerie.

avatar flux_capacitor | 

@pocketalex

Je ne suis pas un "hater" bien au contraire… bonjour les jugements à l'emporte-pièce !

Et je ne pense pas forcément aux "grosses" cartes graphiques… au contraire je pensais à des ordinateurs bien optimisés, qui ne font pas forcément des bruits de turbine à pleine charge.
Prenons par exemple chez NVIDIA les GeForce 1050 Ti, au TDP de 75W, très bien équilibrées.
En face, les AMD série Polaris (par exemple la RX 480 avec ses 90 watts… mais également la RX 560 : 90W également !) ont un TDP tellement catastrophique qu'il en viole la limite maximale de 75 watts par slot imposée par la norme PCIe.
À tel point que pour avoir une carte graphique compétitive quand on monte un PC fanless (je pense surtout hackintosh en fait) à la fois pas trop pourrie et bon marché, chez AMD on est obligé d'avoir recours à des versions spéciales particulièrement downclockées donc pas très véloces, comme la RX 560 Pulse ITX. Au-delà, oubliez les 570 ou 580 : le TDP devient n'importe quoi. C'est clairement un problème.

avatar nicolas | 

@oomu

AMD a un train de retard, mais ils ne sont pas complètement à la rue. L’argent gagné avec les consoles et les mineurs de monnaies le permet de rester en course et de développer activement leur GPU.
Et ils ont des drivers ouvert. D’ailleurs, il me semble qu’ils ont présenté des choses autour du RayTracing cette année. Pas aussi poussé qu’nVidia certes.

avatar Almux | 

Exact: grand temps qu'Apple ouvre ses portes à Nvidia... AMD n'arrive déjà pas à la cheville de CUDA, alors s'il y a encore plus fort, le Mac sera définitivement largué dans la création d'animation 3D (...et je ne parle pas de la grosse prod, qui ne peut plus vraiment bosser su Mac).
C'est très dommage, quand d'excellents outils manquent le coche dans un domaine aussi important.
Mais bon, Apple s'est trop centré sur une moyenne d'utilisateurs. Elle oublie que, comme pour la formule 1, ce sont les techniques de pointe qui tirent le reste en avant!

avatar Benitochoco | 

@Oomu

Depuis des décennies il y a ce débat, AMD ou Nvidia. Aujourd'hui tu as le eGPU, l'affaire est dans le sac. Les cibles d'Apple sont simples, l'utilisateur qui a pas envie de galères en informatique, et le mec qui bosse avec sa machine outil.

Pour ma partie, les rendus 3D sont externalisés, donc bosser sur Nvidia ou AMD, peu importe au fond. Apple l'a d'ailleurs bien compris.

avatar johnios | 

Les pilotes Nvidia pascal sont toujours en beta sous macOS 10.13, donc des pilotes macOS pour Turing ce ne sera surement pas avant 2 ou 3 ans... après il y a toujours la solution bootcamp

avatar domtom93 | 

Pour noël je vais demander une jolie carte graphique à 10 000€ ..?

avatar Napoba | 

AMD ou comment mettre des radiateurs graphiques dans des ordinateurs qui ont de plus en plus de mal à évacuer la chaleur du fait de leur finesse.
Qu’est-ce que l’appât du gain ne fait pas faire à Apple et ses actionnaires.
Machine à 5000€ avec une carte graphique qui n’est pas foutue de jouer à un jeu à la résolution de l’écran ( sauf les jeux s’il y a dix ans bien sur)

avatar 0MiguelAnge0 | 

@Napoba

De quoi tu te plains: les MB Pro sont super fins et pour garder cette logique, Apple pousse au eGPU histoire d’avoir une enclume à côté du machin top design de Ives!

Ou pas...

avatar pommedor | 

> Machine à 5000€ avec une carte graphique qui n’est pas foutue de jouer à un jeu à la résolution de l’écran ( sauf les jeux s’il y a dix ans bien sur)

Apple maitrise tellement bien la partie software, que le même gpu sous windows fait bien mieux en perf et ne galère pas autant. Avec les CG nVidia c'était la même merde déjà, mais bon ça doit être la faut d'amd pour ca aussi. :)

avatar Napoba | 

@pommedor

Je suis d’accord sauf que contrairement à nvidia, Apple ou amd ne fournissent aucun pilote pour les GPU du coup on a un pilote mal optimisé pour Mac et on parle pas de celui PC, qui restera toute la vie de la machine car jamais mis à jour

avatar pommedor | 

Windows 10 met les pilotes de CG à jour tout seul et les panels ont l'option cochée par défaut le plus souvent. Puis même un "vieux" pilote graphique windows fait toujours mieux que celui d'osx à jour. :)

avatar Napoba | 

@pommedor

Pas d’accord
Il n’existe aucun pilote Windows pour les carrés graphiques AMD dans les Mac.
A chaque fois que tu les télécharge, l’installateur te dis qu’il ne détecte aucune carte graphique compatible !

avatar Nathanael_Mtd | 

C'est pour ça que BootcampDrivers existe : https://www.bootcampdrivers.com

avatar ashurao | 

Il y a de grande chance que la question du coût fasse partie des raisons qui ont poussé Apple vers AMD.
Mais au début du divorce, les cartes AMD étaient bien meilleures … en OpenCl.
Mais ça, c’étaient avant.
Aujourd’hui, Apple veut faire des ordi toujours plus fin, donc avec des capacités des refroidissements toujours plus limités, non? Alors pourquoi rester avec AMD?
La Vega 64 consomme bien plus qu’une 1080ti tout en étant moins performante.
A consommation égale, les AMD sont moins performantes que les NVIDIA, alors pourquoi rester avec le moins bon. Si Apple faisait encore des ordi « camions », mais avec des machines aussi exiguës que l’iMac, qui n’est qu’un gros transportable finalement, pourquoi continuer à utiliser les cartes qui consomment et chausse le plus?
Après, Apple et Nvidia sont concurrents sur les véhicules autonomes, Nvidia a tenté de rentrer sur le marché des tablettes et smartphones. Ce sont peut-être des raisons qui font parties du désaccord entre les 2 firmes.
Et j’ai lu quelque part que Nvidia était un partenaire commercial du genre intraitable. Si c’est vrai, c’est pas étonnant qu’avec Apple, qui est pareil, le courant ne passe pas.

avatar Almux | 

Apple ferait bien de proposer de nouveaux "camions"... et ceci d'urgence!

avatar misterbrown | 

Alan Turing doit se retourner dans sa tombe.

avatar Feflefoo | 

À voir. Alan avait fait preuve d'un stoïcisme étonnant lors de la campagne "Mangez des pommes" de Chichi en 1995.

avatar ashurao | 

Apple, comme a son habitude, doit demander des prix ultra bas pour favoriser ses marges. Mais Nvidia, qui n’a pas vraiment besoin d’Apple pour exister, refuse ces conditions.
Pour AMD, c’est différent. Sans Apple, AMD aurait presque disparu du marché des ordinateurs portable. Si vous trouvez une marque qui vends des laptops avec CG AMD, autre que Apple, je veux bien que vous mettiez un lien.

avatar ziggyspider | 

HP, Dell, pour ne citer qu'eux et ils ne se contentent pas du GPU, le CPU y passe aussi …

avatar ashurao | 

@ziggyspider

Oui, je savais pour le CPU, c’est pour ça que je parlais des CG.

avatar Dimemas | 

mmmmmh ...
ça existe malheuresuement, mais pas à, cette gamme de prix
dans les 2000 euros, tu n'as certainement pas ce genre de composant

effectivement apple = gros voleur

avatar Mamdadou | 

@ashurao

Il y a Dell, mais les cartes sont réservées à du milieu de gamme.

avatar Kaserskin | 

Heureusement qu’Apple commande encore chez Amd, la Pomme fait survivre le seul concurrent dans un marché qui serait sinon monopolistique, avec tous les effets néfastes d’un monopole.. Sachant que sur le marché CGU gamer Nvidia se croit deja en monopole et voyez le résultat sur les prix...

avatar pommedor | 

C'est sur qu'avec plus de 100millions de consoles de salons équipés en amd c'est apple qui fait survivre à elle seule amd. Sony et ses +80millions de ps4 vendue et Nintendo avec près de 20m de switch c'est de la pisse à côté. :)

avatar Kaserskin | 

@pommedor

Switch c’est nvidia. Et les marges sur les gpus console sont très faibles (gros volumes, marges faibles en général sur les consoles) donc oui c’est important mais autant qu’Apple je pense

avatar AngryKiller | 

@Kaserskin

Il voulait sûrement parler de la Xbox One ;)

avatar SquallX | 

Perso j’attends de voir l’architecture Navi qui devrait sortir fin d’année et qui équiperait peut être les iMac d’octobre. D’après les rumeurs on aurait une carte graphique milieu de game à la hauteur d’une 1080 pour 250$. A voir si les rumeurs se confirment... ou pas. Comme d’habitude avec AMD

avatar TwistX | 

Je me demande si une solution serait pas un gpu externe? J’ai vraiment l’impression qu’Apple veut pousser le marché dans cette direction(déjà avec le Mac Pro qui était conçu pour ça mais qui n’a pas prit et maintenant les nouveaux mcp.)
Et en soit c’est une Pas mauvaise solution, autant avoir une machine léger et pratique (qui arrive quand même à faire des trucs, faut arrêter de dire que c’est inutilisable) qui peut être utilisée n’importe où. Et qui, a son lieu de travail ou chez soit importe la puissance et déporte les problèmes de refroidissement dans un petit boîtier externe.
Moi ça me convient plutôt bien ^^

avatar ziggyspider | 

OK, mais il faut le dock de connexions à au moins 350€ et 5 ou 600 € minimum pour le eGPU. Ça fait presque 1000 balles de matos à ajouter au prix du Mac pour chez toi et autant au boulot. Ça sale sacrément la note !

avatar TwistX | 

@ziggyspider

Oui alors on est d’accord que c’est pas ouf... je trouve le prix des mac un peu trop élevé depuis la génération touchbar...
Néanmoins le prix des egpu va beaucoup baisser dès que ça sera démocratisé.

avatar Benitochoco | 

@ziggyspider

En 2011, j'ai eu mon MBP 17" haut de gamme à 3 100 euros (sans option), aujourd'hui pour un équivalent c'est le même prix. Juste que j'ai perdu un peu de pouvoir d'achat, comme beaucoup d'ailleurs, et qu'il y a plus de taxe sur les produits.

avatar melaure | 

Tout ce qui est en Thunderbolt restera cher et marginal, comme le Firewire ou le SCSI autrefois. Ne rêves pas ...

avatar TwistX | 

@melaure

Bah déjà c’est la même connectivité que l’usb-c ce qui fait que le port est vachement plus démocratisé. Et on voit déjà plusieurs constructeur l’utiliser ce qui le rend compatible avec beaucoup plus de machine. Et je pense qu’il pourra devenir un nouveau standard.

avatar Dimemas | 

ça commence déja chez certains

pas avec leur egpu moisi qu'apple met en vente avec une carte bas de gamme

avatar Un Type Vrai | 

«petit boîtier externe.»
Les oeillères sont efficaces...

Sinon, pour une meilleure autonomie et de meilleures performances dans le même format, il suffit de prendre une carte nvidia au lieu d'une AMD.
Inutile de déporter le problème...

avatar Mike Mac | 

Wow, DaVinci Resolve 15 sur PC va dépoter encore plus avec ces Nvidia Turing...

Seul l'entêtement d'Apple pour AMD reste une énigme Ah !

avatar Glop0606 | 

La démo avec les stormtroopers envoie du très lourd. Impressionant! Je n'ai plus monté de tour depuis au moins 8 ans mais autant de puissance réveille mes vieux instincts Geek :) Une tour avec i9, Geforce turing, plein de Ram, et pour un prix certainement inférieur à tout ce que fait la pomme, la tentation est grande...

avatar Tato89 | 

Ayant un mbp 2012 je pensais le remplacer par les nouveaux modèles mais étant déçus par pas mal de points (et surtout le prix!) je pense que mon prochain laptop sera un razer 15 pouces qui intègrera ces nouvelles puces pour un prix bien moindre qu un produit de la pomme... bien dommage! Je pense même qu il est possible d en faire un hackintosh

avatar ashurao | 

@Tato89

Si tu arrives à en faire un hack, tiens nous au courant.

avatar Tato89 | 

@ashurao

Ça marche! ;)

Pages

CONNEXION UTILISATEUR