Premiers tests des Radeon Vega prévues pour l'iMac Pro

Florian Innocente |

Plusieurs sites américains et français ont publié leurs premières évaluations des nouvelles cartes graphiques d'AMD, les RX Vega 56 et RX Vega 64 (Hardware.fr, AnandTech, voire TechRadar).

Leur lecture complète assouvira la soif de détails pour tous ceux que ces nouveaux GPU intéressent, pour un Hackintosh mais aussi et surtout parce qu'il vont figurer dans le futur iMac Pro attendu avant la fin de l'année.

Les conclusions de chacun mettent en exergue la capacité de ces cartes à venir affronter les gros modèles GTX 1070/1080 de Nvidia bien installés dans le paysage. Cependant Nvidia a toujours du répondant et ses solutions restent très pertinentes.

AnandTech décrit des Vega 64 au coude-à-coude avec les GeForce GTX 1080 pour les jeux, dans une définition de 3820x2160. Cependant la GeForce devance parfois nettement sa concurrente.

Surtout, la différence de consommation électrique n'est pas du tout à l'avantage de la nouvelle carte d'AMD. Avec 295 Watts, elle dépasse de 110 à 150 Watts les modèles Nvidia.

Apple va avoir fort à faire pour tempérer ces excès, la ventilation de l'iMac a été revue et cela peut passer aussi par une décélération de la puce graphique utilisée. La fiche technique de cet iMac s'en tient pour l'heure à des informations basiques et parle sommairement de "Radeon Pro Vega 56 et Vega 64".

La Vega 56 montre une consommation plus élevée aussi que sa concurrente la Nvidia GTX 1070 (de 45 à 75 W plus importante) et elle est en moyenne 8 % plus rapide que cette dernière. Comparée à la Vega64, elle offre environ 90 % de ses performances.

Chez Hardware.fr la conclusion est plus sévère, le site se dit déçu par les prestations au vu de l'attente pour ces cartes «  Même en version RX Vega 64, on se retrouve dans le meilleur des cas autour d'une GTX 1080 qui utilise un GPU significativement plus petit et moins énergivore ».

avatar C1rc3@0rc | 

@Hideyasu

Apple a une maitrise du refroidissement qui est une reference dans le domaine depuis tres longtemps, pourtant malgré les promesses et l'urgence jamais l'equipe des ingenieurs d'Apple n'a reussi a installer un refoidissement suffisant dans ses portables pour y faire tourner un G5 conçu pour les tours!
C'est la raison qui a fait qu'Apple a abandonné le PowerPC et a du passer au Core d'Intel. Et pourtant les clients ont attendu longtemps la machine, mais c'etait impossible.

L'histoire de l'iMac Pro ressemble beaucoup a celle du portable a G5.
Et il ne faut pas oublier qu'un cause principale des problemes de fiabilité du Mac Pro 2013 c'est inefficacité du refroidissement.

Dw plus dans un Macbook Pro, on a souvent pas de GPU et toujours un processeur qui est ultra optimisé pour eviter de trop chauffer, quitte a degrader les performances de maniere drastique. Le TDP d'un MBPro c'est 40Watt au pire.

La on parle uniquement d'un GPU qui atteint les 300Watts, auquel il faut rajouter 140 watt pour le CPU!!!

Honnêtement y a pas grand monde aujourd'hui qui croit qu'Apple va reussir a realiser un iMac Pro.
Reste a esperer qu'Apple a dans ses cartons une tour ou une minitour et que ça va sortir rapidement, parce que sinon le mac va etre definitivement exclu des domaines de la VR, de la video, du GPGPU,...

avatar 0MiguelAnge0 | 

@Rez2a

Les utilisateurs cherchant des perfs ont les moyens. Apple continue à s'obstiner avec AMD. Je présageais le pire quand j'ai compris qu'AMD proposeait une version qu'en Water colling!

La GTX1080Ti c'est 250W pour 11Tera Flops de perfs. Qui dit mieux? C'est ce que je vais glisser dans mon Mac Pro 5.1, qui lui a été conçu pour dissiper.

Je rejoins ta crainte: l'iMac Pro sera ou bien comme le Mac Pro 2013 avec une fiabilité douteuse ou alors ils vont brider les perfs d'une manière improbables: cela va calculer beaucoup mais pas longtemps...

avatar C1rc3@0rc | 

«Je rejoins ta crainte: l'iMac Pro sera ou bien comme le Mac Pro 2013 avec une fiabilité douteuse ou alors ils vont brider les perfs d'une manière improbables: cela va calculer beaucoup mais pas longtemps...»

Ou alors Apple va accumuler les retards et finalement renoncer a sortir une machine impossible... Le spectre de l'histoire du portable G5 plane sur cette machine.

avatar kino | 

C'est vrai, mais le problème, c'est que les Nvidia sont mal exploitées avec Final cut pro.

Ma ATI 7970 gère plus rapidement les rendus avec le GPGPU et open CL que la Nvidia 1080....

avatar JohnDevil | 

Le Mac Pro tube est l'exemple même d'une mauvaise dissipation thermique (voir mes commentaires précédents) des boites entières ont vu leur mac pro originaux et de remplacement griller !!!

avatar Pierre H | 

C'est pas uniquement une entente AMD/Apple, c'est aussi que Apple fait payer cher à Nvidia de vouloir jouer sur leur terrain. Nvidia est en train de devenir le meilleur sur le plan de l'informatique embarquée dans les voitures autonomes de demain, et ça, la Pomme ne le supporte pas du tout...

avatar fousfous | 

@iOx2

La plupart des applications sont optimisés pour AMD et Apple ne veut pas forcément encourager les pratiques déloyales de nvidia avec cuda.
Et puis si les ingénieurs s'entendent mieux entre eux c'est un point positif en plus.

avatar C1rc3@0rc | 

«La plupart des applications sont optimisés pour AMD »

hein? Quelles applications, dans quels domaines?

De ce que je connais, a part les applications Apple, tout ce qui fait appel a du GPU mais egalement du GPGPU sont majoritairement optimisés, quand c'est pas uniquement conçu, pour Nvidia et CUDA.

avatar huexley | 

Ça va chauffer. IMac special soufflerie.

avatar Lawliet | 

L'attente était énorme sur ces cartes et la déception n'en ai que plus grande. Un an après Pascal, AMD se met à peine au niveau d'une 1080 avec 100W de plus, et reste bien loin de la 1080 Ti (qui consomme toujours moins que la Vega 64 !). Malheureusement pour nous, consommateurs, la partie GPU de AMD va suivre le désastre de ses CPU avant Ryzen. En espérant un Ryzen à la sauce GPU, mais pour quand ?
Ce n'est pas étonnant, AMD nous ressort toujours la même archi modifiée par petite touche au fil des ans, et on connaît ses limites. Mais ils n'ont pas le budget d'un Nvidia pour refondre leur architecture.
Même en Dx12 elle ne brille pas particulièrement, à voir à l'avenir quand les jeux utiliserons massivement les nouvelles APIs, mais alors Volta sera là.

Bref, POURQUOI Apple utilise ces cartes dans un espace aussi confiné où la moindre calorie économisée est importante. Soit les cartes vont se bridées avec des baisses de fréquences, soit ça va être un four. Impossible de sortir la CB en sachant qu'Apple gratte quelques dollars pour des composants au rabais.

avatar fousfous | 

@Lawliet

En quoi c'est un composant au rabais? En tant qu'utilisateur ce qui compte le plus c'est les performances, que ça consomme plus n'est pas dramatique tant que le système de ventilation est adapté (et il l'est).
Et comparer une vega 64 avec une 1080 TI il faut le faire vu la différence de prix...
Avec AMD Apple a aussi plus de marge pour avoir une carte adapte à ses besoins contrairement à nvidia.
Donc non ce n'est pas qu'une question d'économiser quelques sous.

avatar 0MiguelAnge0 | 

@fousfous

Donc in devrait aussi éliminer les iPhones des comparatifs vus la différence de prix???

avatar fousfous | 

@0MiguelAnge0

Bah tu imagines bien que c'est stupide de comparer un iPhone a un machin Android bas de gamme et du coup de conclure qu'en effet l'iPhone est mieux...
Il ne faut pas oublier de ramener au prix, surtout quand c'est aussi "simple" a comparer que des performances brutes.

avatar Lawliet | 

Au rabais par le rapport performance par watt. Justement, le prix n'est pas très différent. Le placement tarifaire est désastreux, la Vega 64 va faire un bide, c'est certain. La 56, tout dépendra de son placement par rapport à la 1070, mais vu les prix annoncés, c'est mal parti aussi ...
Et clairement, je vois bien AMD faire un prix à Apple pour refourguer leurs chips...

Et on ne sait rien de la ventilation de l'iMac Pro. Ca sera peut-être comme les iMacs qui ventilent déjà assez fort, ou peut-être pire

avatar fousfous | 

@Lawliet

Les gens regardent tant que ça la performance au watt? Si je doit m'acheter une carte graphique je regarderai plutôt le rapport puissance/prix.
Et n'oublie pas qu'Apple adapte légèrement la puce à ses usage, notamment pour les e/s comme le TB3.

avatar Lawliet | 

Au delà du rapport performance/watt, c'est le simple fait de savoir que je pourrai en avoir plus si Apple ne s'obstinait pas dans ses choix. Mais je ne fais pas parti de la grande majorité des gens qui ne se soucie pas de ça.
Il y a sûrement d'autres paramètres à prendre en compte, je te le concède. On vera leurs perfs en OpenCL vs Pascal aussi. Même si encore une fois, avoir la possibilité d'exploiter Cuda serait un gros plus.

avatar fousfous | 

@Lawliet

Enfin personnellement je suis pour l'idée de tuer cuda dont la seule et unique raison d'exister est de tuer la concurrence

avatar Lawliet | 

Bon là je suis assez d'accord.

avatar bobdu87 | 

C'est vrai tuer le truc une techno plus aboutie qu'open CL est une bonne idée...
Mais alors autant tuer metal qui est une saloperie propriétaire alors que vulcain est multiplateforme...

Allez essayes de trouver une solution pour ne pas passer pour un ***

avatar 0MiguelAnge0 | 

@fousfous

Apple, Championne des solutions propriétaires!!!

Si l'industrie se jette sur Cuda, c'est peut-être qu'il n'y a pas d'autre alternative standardisée qui fasse aussi bien?!

avatar C1rc3@0rc | 

Euh Nvidia supporte aussi pas mal de standards..

avatar bobdu87 | 

Ben mon petit père, il faudra rajouter la facture électrique pour avoir un réel rapport performance prix. Et paf, nvidia fait bien mieux et pas besoin de s'arracher les cheveux pour refroidir le bouzin!

avatar C1rc3@0rc | 

Il faut remarquer que si la conso et le dagagement tehrmique n'ont que peu d'impact dans l'utilisation sur une tour de type station de travail dans le cadre d'une utilisation en individuelle ou une petite equipe, la question devient un point de bascule des qu'il s'agit d'utiliser plusieurs GPU dans une machine, de faire appel a plusieurs machines pour mouliner les traitement d'autant dans les domaines de l'image ou du GPGPU.

Le cout electrique (consommation de la carte plus conso du systeme de refroidissement, plus les boulles quies ou le QC35) entre un PC avec un AMD et un PC avec une Nvidia, n'est pas un probleme. Par contre, la difference croit tres vite si on multiplie les PC et les GPU par PC. Et la Nvidia sort tres, tres vite vainqueur.

Aujourd'hui le seul avantage d'AMD c'est que ces GPU n'ont pas les limitations artificielles pondues par le marketing de Nvidia. Dans le domaine du GPGPU, les Vega seront utilisables alors qu'il faudra passer sur des Quaddro chez Nvidia... du moins si Nvidia ne revoit pas son marketing d'ici la.

avatar comboss | 

@fousfous

"En quoi c'est un composant au rabais? En tant qu'utilisateur ce qui compte le plus c'est les performances, que ça consomme plus n'est pas dramatique tant que le système de ventilation est adapté (et il l'est)."

La consommation est primordiale. L'énergie est notre avenir, du moins le miens ;)

avatar JoKer | 

Je pense qu'Apple ne nous a pas tout montrer sur les photos des iMac Pro.
Ce que l'on voit c'est le boîtier de l'ordinateur avec tout dedans sauf la carte graphique qui sera dans un boîtier séparer.
Je ne vois pas comment ils pourraient tout mettre dans un boîtier d'iMac sans que cela prenne feu.

Pages

CONNEXION UTILISATEUR