Blackmagic, Gigabyte, Sonnet : trois eGPU à carte AMD Radeon RX 580

Anthony Nelzin-Santos |

Par un heureux hasard, les trois eGPU que nous avons testés ces derniers mois intègrent une carte graphique AMD Radeon RX 580. Ce sont pourtant trois produits très différents, qui ne visent pas tout à fait la même cible. Le Blackmagic eGPU est une véritable station d’accueil à carte graphique intégrée. La Gigabyte RX 580 Gaming Box est une solution tout-en-un mobile. La Sonnet eGFX Breakaway Box est un système évolutif qui peut accueillir les cartes les plus performantes. L’un est-il meilleur que l’autre ? Éléments de réponse.

Image Apple.

La même carte graphique, des performances différentes

Qui dit même carte dit mêmes performances, n’est-ce pas ? Oui… mais non. À vrai dire, ces trois boîtiers n’embarquent pas tout à fait la même carte. Apple a fourni la puce de l’iMac 27 pouces, désignée par la référence AMD Radeon Pro 580, à Blackmagic. Gigabyte a construit sa Gaming Box autour d’une carte maison au format mini-ITX. Enfin, nous avons tout simplement installé une carte Sapphire Nitro+ Radeon RX 580 dans le boîtier de Sonnet.


avatar dvd | 

Dommage que ce soit du AMD. Quand on voit les 2080/1080 en face...

avatar JustThink | 

@dvd

Carrément.

avatar F | 

Au final lequel est le plus performant ?

avatar marenostrum | 

il faut payer pour le savoir (ça sera un article payent celui-ci l'année prochaine) mais normalement c'est le plus cher le meilleur, pas besoin de plus de science.

avatar Marco787 | 

L'article ne donne-t-il pas des indications en ce sens ?

De manière générale, le Sonnet est le meilleur, puisqu'il est le seul à pouvoir accueillir n'importe quelle carte, y compris donc les plus puissantes.

avatar ckorber | 

Avez vous comparé les performances avec un MBP 15 pouce et la même carte ?
Merci

avatar ckorber | 

Je précise :la carte interne au MBP 15 bien sur

avatar corben | 

Perso
A choisir je prendrais le plus silencieux donc le 3e

avatar YSO | 

Et on pourra mettre des N’Vidia, si on ne veut pas d’AMD ?

avatar NestorK | 

@YSO

Tu peux mettre ce que tu veux dans la boîtier. Le problème, c’est l’OS, les pilotes, les apps (CUDA vs OpenCL), etc.

avatar YSO | 

@NestorK

N’Vidia ne les fournit pas ?

Je n’arrête pas de lire que AMD ce n’est pas ça et que bon nombre d’utilisateurs de Mac avec une CG N’Vidia ne veulent pas de Mac avec une CG AMD.
Donc là, avec ces boîtiers il devient possible de prendre un MacBook Pro sans CG interne et se tourner vers ce boîtier avec une N’Vidia.

avatar NestorK | 

@YSO

Aujourd’hui, macOS est archi tourné vers AMD. Pour le moment, sous Mojave, il n’y a pas encore de pilotes Nvidia.

Sous High Sierra, où il est possible d’utiliser des cartes Nvidia, les performances sont en faveurs d’AMD. La faute à Apple et à l’opti OpenCL des apps sous macOS et de Metal.

Bref : Nvidia sur mac, aujourd’hui, ca n’a aucun intérêt en terme de performance, sauf si son app utilise CUDA.

Après, en brute, sur le papier, en terme de consommation x perf, Nvidia est effectivement devant. Mais on n’en profite pas sous mac...

avatar Marco787 | 

@ NestorK

Très bons points.

Cela prouve que contrairement au marketing d'Apple, le support pour les eGPU est quelque peu limité en réalité.

Et un point très frustrant et important -non abordé dans l'article- est qu'alors que l'utilisation de Nvidia via BootCamp ne fonctionne pas "out of the box"... Cela serait pourtant une excellente solution.

avatar cv21 | 

Les drivers CUDA sont pourtant régulièrement mis à jour. Effectivement, il faut que le logiciel puisse en tirer partie mais est-ce que cela pose pb à l'OS ?

https://www.nvidia.fr/object/mac-driver-archive-fr.html
https://9to5mac.com/2018/05/05/nvidia-egpu-thunderbolt-macos-script-video/
exemple où amd est largement plus rapide que la 1080 car fcpx est adapté :
https://9to5mac.com/2017/05/10/hackintosh-amd-rx-480-vs-nvidia-1080-ti-f...

Bref, pas si simple entre puissance brute et choix des logiciels...pas toujours clair.

avatar davideneco | 

En terme de performance brute nvidia devant
Ah
Vega 64 12,5 tflops
2080 10 tflops
RX 590 7 tflops
1070 6,4 tflops

On se demande pourquoi Apple prend NVIDIA ? Je sais pas ? Car c'est les seul qui savent que AMD est devant en performance brut ? Et Microsoft aussi vu que la Vega 64 bat la 2080 sur forza horizon 4

Dit moi PK il payerait plus chère a mettre des NVIDIA moins performante quand tu optimise les deux marque EQUITABLEMENT (et pas favoriser NVIDIA comme le font toute les marque )

C'est la faute a apple alors de choisir les plus performant et faire en open cl ? Bah non c'est juste NVIDIA qui ne sort pas des monstre de puissance
Plus puissant que la Vega 64 la 2080ti avec 13 tflops , 0,5 tflops de plus pour 4 fois le prix génial

avatar NestorK | 

@davideneco

J’ai du mal à comprendre le ton condescendant de ton commentaire alors que visiblement tu ne maîtrises pas vraiment ton sujet ?

As-tu bien lu ma phrase ? Tu as vu que je souligne très nettement l’équation « performance x consommation » ? J’attends avec impatience tes nouveaux chiffres me prouvant qu’AMD est devant mais par pitié ! N’oublie pas les sources qu’on puisse rire ensemble.

Protip : je vais t’apprendre quelque chose qui pourrait te surprendre > le saint teraflop ne fait pas tout. Ouille !

Pour le reste, il est urgent que tu te documentes mieux.

PS : enfin, si Apple choisit AMD, qui depuis quelques années est en ballotage défavorable, c’est simple : c’est là qu’elle a le meilleur deal. J’espère ne pas briser tes idéaux...

avatar davideneco | 

Tflops ne fait pas tout pourtant
Une Vega bat une 2080 et bizarrement quand on parle de puissance des ordi on parle des tflops petaflops ect
Tu baisse le voltage des AMD , tu gagne en perf et en conso
Documenter de ? Rien du tout

avatar ashurao | 

@davideneco

Comme tu le dis si bien, Tflops ne fait pas tout. Mais c’est toi qui a orienté le débat sur les Tflops.
Ensuite, où as-tu vu qu’une Vega 64 était plus performante qu’une RTX 2080?
Ensuite, en baissant le voltage, on baisse la conso, ça ok, mais on améliore aussi les perfs !!! T’es sûr de ton coup là ?

avatar ashurao | 

@davideneco

D’après ce que j’ai pu lire dans les tests, la RX 590 semble consommer autant qu’une RTX 2080. Alors qu’en terme de performances, elle arrive tout juste au niveau d’une 1070. Tu mets en avant les Tflops, ok! Dans ce cas, il faut comparer à consommation équivalente.

GTX 1070: 6,4 Tflops pour une consommation moyenne en jeux de 145w (techpowerup)
RX 590 : 7,1 Tflops pour 218w
RTX 2080: 10 Tflops pour 215w
RX Vega 64: 12,5Tflops pour 292w
RTX 2080ti: 13,4 Tflops pour 273w

C’est pas difficile d’avoir une grosse puissance brute quand on fait pas attention à la consommation

RX 570: 5,1 Tflops pour 167w

avatar davideneco | 

Vega 64 499€
2080ti 1200€

avatar ashurao | 

@davideneco

C’est sûr qu’au niveau prix, Nvidia se prend pour Apple, là !! C’est l’absence de concurrence malheureusement.

avatar pharma98 | 

J’aurai bien aimé un test avec la Razer Core X équipée d’une RX580

avatar lepoulpebaleine | 

C’est bien beau tout ça mais si on revenait au format tour des Mac Pro d’avant 2013 : plus aucun problème :
- changer de carte graphique quand on veux
- idem pour la ram
- idem pour les DD
Mais pourquoi faire simple quand on peut faire compliqué, hein ? ?

avatar corben | 

@lepoulpebaleine

Peut être parce que 2018, on n’a plus vraiment envie d’un design de boîtier qui existe depuis 20-30 ans

La tour certes c’est pratique mais c’est gros

avatar lepoulpebaleine | 

@corben

Franchement pour une installation fixe, on met tout sous le bureau et basta.

Et l’argument de l’âge, bof. Les bagnoles ont 4 roues depuis pas mal de temps et je trouve ça pas si mal (ok je caricature un peu ?).

Pages

CONNEXION UTILISATEUR