La carte graphique des iMac Retina 5K aussi puissante que celle du kit de développement à carte graphique externe

Anthony Nelzin-Santos |

La carte graphique AMD Radeon Pro 580 de l’iMac 27 pouces Retina 5K est aussi puissante que la carte graphique AMD Radeon RX 580 du « kit de développement à carte graphique externe ». Voilà qui confirme l’attention portée par Apple aux besoins des créateurs de contenus VR… et qui montre que le kit de développement a surtout été pensé pour les MacBook Pro.

L'External Graphics Development Kit. Image Apple.
L'External Graphics Development Kit. Image Apple.

Au petit jeu du test OpenCL de Geekbench 4, la carte AMD Radeon Pro 580 de l’iMac 27 pouces Retina 5K que nous testons frôle les 120 000 points, à peine plus que les 110 000 points franchis par la carte AMD Radeon RX 580 du kit de développement. Rien d’étonnant : les Radeon Pro utilisées par Apple dérivent directement des Radeon RX.

Au-delà de ce test synthétique donc, ces deux cartes devraient offrir le même niveau de puissance, à mi-chemin entre la Nvidia GTX 1060 et la GTX 1070. Outre qu’elle peut être facilement remplacée, la carte « standard » fournie avec le kit de développement aura peut-être l’avantage de l’endurance, ses gros ventilateurs devant assurer un bon refroidissement. D’après nos premiers tests toutefois, la carte intégrée à l’iMac tient la charge sans broncher.

Nous n’avons mesuré aucune baisse de ses performances après plusieurs dizaines de minutes de calcul et de rendu 3D, sans doute parce que sa température n’a jamais atteint des niveaux inquiétants, preuve de l’efficacité de l’architecture thermique de l’iMac. S’il doit encore être confirmé par de nouveaux tests, ce comportement est de bon augure pour les utilisateurs d’applications particulièrement exigeantes.

A priori donc, rien ne sert d’acheter le « kit de développement à carte graphique externe » pour remplacer la carte de l’iMac 27 pouces Retina 5K haut de gamme que vous venez d’acheter… puisqu’elles sont, pour ainsi dire, identiques. (Nous ne savons pas encore s’il est possible d’utiliser les deux cartes à la fois : nous le vérifierons dès que nous le pourrons.)

avatar raf30 | 

Est-ce que le T3 à impact négatif sur les perfs par rapport à une solution interne ?

avatar Link1993 | 

@raf30

Oui, il y a des canaux disponible en pci express non présent dans le thunderbolt 3.

Mais apparement la Radeon n'en profite pas pour que les résultats soit similaire ;)

avatar C1rc3@0rc | 

@Link1993

Il faut bien lire l'article et s'y connaitre un petit peu, le test concerne OpenCL, donc ici il s'agit de GPGPU (calcul vectoriel asynchrone), donc la mise en calcul parallele de données. Normalement, il de devrait y avoir aucun impact entre une version du GPU embarqué ou le fait de faire effectuer ce calcul sur un serveur, meme distant.

Maintenant, il y a l'aspect du throttling, la baisse de peformance liee a l'augmentation de temperature. Pour l'evaluer il faudra lancer des serie de calcul GPGPU se comptant en heure. Plus important encore, il faudra lancer des calcul qui occupent a la fois le GPU et le CPU et voir a quel moment la machine devenant une cenrale thermique, cede.

Dans le cadre d'un calcul asynchrone, typiquemement GPGPU donc, on aura tout interet a utiliser une tour serveur, bien refroidi.

Pour les gens qui utilisent la carte graphique pour produire des images en temps reel, la il est clair que le GPU embarqué est incomparablement plus performant qu'une solution deportée

Je rajouterai un element: l'impact thermique.
Il y a deux consequence a la montée en temperatute:
- a court terme, l'augmentation de temperature entraine le ralentissement du processeur et du GPU, c'est le throttling, qui en ralentissant, puis en arrettant les unités de traitement, evite que le composant depasse sa temperature critique.
Cet impact est temporaire et n'a plus de consequence des que les composant a suffisament refroidi.

- a long terme, il y a une accumulation des degats physiques sur les materiaux.
Chaque montée en temperature a des paliers de degradation irreversible pour les materiaux, et l'effet d'accumulation fini par detruire le materiaux.
On peut donner l'exemple des soudures qui finissent par "lacher" a force de montées en temperature repetté. Ça peut prendre des mois ou des annees en focntion des depassement de paliers, mais c'est inevitable.

Les iMac sont connus pour justement souffrir de ces problemes d'accumulation de temperature. L'ecran et le GPU sont souvent les premiers a subir les dommages, mais tout ce qui a des soudures, ou des "pistes" conductrices sera degradé.

Sur les portables, il y a en plus la batterie qui est tres sensible a la temperature. En exposant la batterie a des temperatures trop elevées, on la 'flingue" littéralement.

Ici il y a un avantage au processeur embarquant des unités graphiques plutot qu'un GPU separé: c'est le processeur qui gere les paliers de montée en temperature et c'est son unité de gestion d'alimentation qui va ralentir ce qui doit l'etre. Avec un GPU separé, il y a une concurrence, chacun ayant un TDP distinct. C'est pour cela que sur les machines "serieuses" on trouve un systeme de refroidissement pour le GPU, pour le CPU et pour la CM...

avatar ErGo_404 | 

Il y a une perte entre une carte graphique intégrée en PCIe et une carte en TB3 sur les PCs où c'est comparable.
S'il n'y a pas de grosse différence dans le cas des macs, c'est que la carte intégrée n'est pas aussi extraordinaire qu'Apple aimerait nous le faire croire.

avatar fiatlux | 

Le différence dépend beaucoup du type d'application.

Si tu utilises la CG pour faire du décodage et traitement vidéo 4K temps réel (Davinci Resolve), la bande passante est très critique et il y aura une différence très sensible entre une solution interne et une solution externe (même en TB3).

Dans beaucoup d'autres cas, c'est moins critique voire quasi sans conséquence.

Le site barefeats a fait beaucoup de benchmarks comparatifs qui illustrent bien ces différences.

avatar frankm | 

J'ai l'impression qu'ils ont mis un bon coup de collier cette fois. Si le MacBook Pro sans Touch Bar a vraiment le geekbench qu'il semble avoir, la mise à jour n'est pas rien. En Apple Store je viens de le chronométrer à 16s au démarrage

avatar NestorK | 

@frankm

Mon Mac Mini sur SSD met 19 secondes à booter Sierra. Autant dire que ce genre de "bench" ne révèle pas grand chose si ce n'est que le SSD a transformé nos macs...

Pour en revenir à l'article, c'est donc intéressant de constater que les différences entre GPU mobile et desktop sont en train de s'effacer. Plutôt une bonne nouvelle pour la team design chez Apple et du bon pour le GPU Vega de l'iMac Pro !

avatar LeGrosJeanLou | 

@NestorK

Je n'ai pas l'impression que la Radeon 580 Pro soit une carte mobile. C'est même une dual-slot.

https://www.techpowerup.com/gpudb/2968/radeon-pro-580

avatar NestorK | 

@LeGrosJeanLou

Tu te doutes bien que la 580 de l'iMac n'est certainement pas une carte dual slot ? Ce serait impossible de la faire rentrer dans le chassis de la machine. C'est une version mobile, d'où la nomenclature légèrement différente. Celle du Kit est en revanche une version desktop, certainement dual slot comme tu le précises.

avatar LeGrosJeanLou | 

@NestorK

Justement j'ai cherché une nomenclature différente que je n'ai pas trouvée. Tu te doutes bien que je me doute bien que ça m'a étonné de constater l'absence de différence dans la nomenclature ^_^

Après si les puces desktop et mobile sont les mêmes ou ont les mêmes performances à quoi bon les différencier ?

En tout cas j'ai hâte d'avoir des précisions parce que comme tu peux le constater, je suis dans le flou !

avatar ErGo_404 | 

Dual ou single slot ce n'est qu'une question de ventilation. Si la carte est bien intégrée avec un système de refroidissement efficace, elle peut probablement tenir dans un iMac.

avatar Hasgarn | 

La ou c'est intéressant, ton lien, c'est aund on regarde l'efficiences des cartes par rapport à la Radeon 580 PRO : la Titan X est à 196% en puissance relative.
De bon augure pour la Radeon Vega de l'iMac Pro :D

avatar Pas-un-philosophe (non vérifié) | 

@frankm
Mon macbook air met 16,58s au démarrage, là c'est plutôt le SSD qui joue pour la rapidité du démarrage

avatar LeGrosJeanLou | 

@NestorK

En plus la Radeon 580 Pro de l'iMac fait mieux que la carte desktop du kit de développement (120 000 contre 110 000)

D'où mon interrogation !

avatar Orus | 

"l’attention portée par Apple aux besoins des créateurs de contenus VR"
Assez amusant vu l'offre inexistante de casque VR sur Mac.

avatar LeGrosJeanLou | 

@Orus

Un casque VR c'est rien qu'un écran dans une boite avec quelques capteurs supplémentaire donc je vois pas bien le rapport.

C'est comme si tu discutais de l'apport d'Apple à l'informatique en dénonçant l'absence d'écran Apple.

avatar Rigat0n | 

@Orus

Et tu penses qu'Apple propose 100 balles de réduction sur le Vive pour...? Que l'utilisateur s'achète un casque incompatible ? Un casque VR n'est ni plus ni moins compatible avec un Mac qu'un écran.
Là où tu pourrais avoir raison, c'est que les PC ont pris de l'avance en terme de contenu, puisque des jeux et autres contenus VR sont déjà présents sur Windows (Bethesda par exemple arrive avec Fallout 4 VR et Skyrim VR) alors que sur Mac c'est pas ça.
Mais si Apple propose les bons outils ça arrivera très vite. Valve a des contenus VR dans les cartons et est généralement présent sur Mac. Après le jeu vidéo a toujours été un point faible du Mac mais la VR ne se limite pas aux jeux vidéos.

avatar Vivarais07 | 

Et ça donne quoi par rapport à une GeForce GTX 1080 Ti de 11Go ?

avatar victoireviclaux | 

Si j'ai bien compris, on pourra jouer convenablement sur un MacBook Pro 2016 13" avec un eGPU ?

avatar ijimax | 

@victoireviclaux

"Si j'ai bien compris, on pourra jouer convenablement sur un MacBook Pro 2016 13" avec un eGPU ?"

Quand tu allais on revenait...

avatar softjo | 

Il faut donc débourser minimum 3000€ pour avoir un peu de VR chez Apple. Et ce montant augmente chaque année comme ils réduisent les capacités graphiques des gammes de plus en plus haut.

Avant seulement l'entrée de gamme était mauvaise sur ce point, désormais, il faut viser le haut du haut de gamme

avatar YSO | 

À quand le retour des N'Vidia dans les MBP et iMac ?
Pour en avoir, il faut prendre des vieux Mac.

CONNEXION UTILISATEUR