Fermer le menu
 

Des tests de performances de boitiers eGPU sur Mac Pro et MacBook Pro

Florian Innocente | | 20:30 |  31

Les amateurs de boitiers eGPU à utiliser avec les tout derniers MacBook Pro 15" 2016 trouveront des tests de performances chez Bare Feats et eGPU.io qui soulignent l'intérêt de cette combinaison d'un portable avec une ou plusieurs cartes graphiques externes.

Entre la présence de ports Thunderbolt 3 et la mise à disposition par Nvidia de pilotes pour ses dernières cartes graphiques, les choses vont en se simplifiant pour les utilisateurs qui veulent pousser les performances de machines dont les cartes graphiques internes sont figées.

Bare Feats a comparé 6 installations pour voir ce que cela donnait avec deux boitiers eGPU branchés simultanément en Thunderbolt 3 sur un MacBook Pro 2016. Puis ces même cartes avec les deux générations de Mac Pro. Il est difficile d'en tirer une conclusion générale tant ces configurations sont différentes mais ces essais restent instructifs pour les curieux.

rMBP > eGPUx2 V2 : désigne le dernier MacBook Pro 15" avec deux boitiers Sonnet eFX Breakaway (sortie prochaine à 300 $) et AKiTiO Node (même prix), équipés de cartes NVIDIA GTX GeForce 1080 Ti et GeForce 1080. Ils sont reliés en Thunderbolt 3.

rMBP > eGPUx2 V1 est la même configuration mais avec deux NVIDIA GTX GeForce 1080.

cMP > Dual 1080s désigne l'ancien Mac Pro tour avec deux GeForce 1080 à l'intérieur

cMP > 1080Ti, une seule GeForce 1080 Ti dans le Mac Pro tour

rMBP > Break > 1080Ti, une GeForce 1080 Ti dans un boitier eGPU Sonnet branché à un MacBook Pro en Thunderbolt 3.

nMP > Break > 1080 Ti, une GeForce 1080 Ti dans un boitier eGPU Sonnet branché à un Mac Pro 2013 en Thunderbolt 2.

Cliquer pour agrandir
Cliquer pour agrandir
Cliquer pour agrandir
Cliquer pour agrandir

Chez eGPU.io aussi on a employé un MacBook Pro 15" Core i7 fin 2016 avec d'un côté ses différentes options de cartes graphiques AMD Radeon Pro 450/455/460 + Intel HD 530 et de l'autre, avec des boitiers eGPU AKiTiO Node et Mantiz Venus (389 $) branchés en Thunderbolt 3.

Dans le cas présent ils contenaient à chaque fois une GeForce GTX 1080 Ti. Les performances dans les tests Luxmark, Valley et Heaven sont multipliées au minimum par 3 ou 4 face à l'équipement de base de ces portables.

Cliquer pour agrandir
Catégories: 
Tags : 

Les derniers dossiers

Ailleurs sur le Web


31 Commentaires

avatar eX0 18/04/2017 - 20:40 via iGeneration pour iOS

J ai peut être mal lu mais pour les jeux vidéos ça donne quoi?

avatar Spip74 19/04/2017 - 07:08 via iGeneration pour iOS

@eX0

Pour les jeux il faut être vraiment masochiste pour acheter un mbp 2016, avec des gtx 1080 dans un boîtier egpu. Pour le quart du prix (le cinquième peut-être ?) tu trouvera mieux sur pc.
Et puis comme l'on fait remarquer certain reste le problème du retour vidéo...

avatar Benitochoco 19/04/2017 - 14:02

Pour les jeux, une belle tour fera l'affaire. Ou alors tu es justicier milliardaire ^^



avatar fousfous 18/04/2017 - 21:16 via iGeneration pour iOS

Mais c'est pas très utile de mettre une 1080, une carte moins puissante saturerais déjà la bande passante, une 1060 ou une 1070 serait suffisante.
Et y a pas des agregateurs de 2 TB2 vers TB3? Pour connecter un ancien MBPR sans perte de débit.

avatar NestorK 18/04/2017 - 21:48

@fousfous

Tu as lu l'article avant de commenter ? Sous Blender, une 1080 + 1080ti dans un boitier eGPU relié en TB3 font deux fois mieux qu'une simple 1080 dans son boitier TB3. Tu en déduis quoi sur la limite de bande passante du Thunderbolt 3 ?

Le problème de ces GPU, ce sont les pilotes et les API graphiques. Pour une machine sous FCP X (OpenCL inside, donc largement orienté AMD), c'est effectivement de l'argent jeté par les fenêtres.

Ca change radicalement si on fait tourner une app CUDA.

avatar fousfous 18/04/2017 - 21:54 via iGeneration pour iOS

@NestorK

Bah en fait c'est ce que je dis, les boîtiers limitent les performances des cartes (c'est normal le TB n'a pas assez de bande passante) mais si tu branches 2 boîtiers a 2 ports TB3 différent tu doubles les performances, ce qui me semble logique la.

avatar C1rc3@0rc 18/04/2017 - 22:29

En fait non, tu ne double pas les performances (par contre le tarif et la consommation oui). Deja tu as le problème de la boucle de retour en ce qui concerne l'affichage. Ensuite il y a la latence, car en fait c'est toujours le processeur du Mac qui doit faire tout le boulot et cela a travers le Thunderbolt. Le Thunderbolt a beau etre performant et garantir la stabilité et le debit, ça penalise enormement par rapport a un GPU sur la CM.

Ce qu'il faut comparer c'est pas la performance entre le Macbook Pro seul et le Macbook Pro collé a un boitier eGPU, mais entre le Macbook Pro et un PC avec un GPU sur la CM!

Maintenant pour repondre a @eXo plus precisement sur sa question:

L'eGPU n'est pas adapté au jeu (ni a l'afficahge en temps reel) mais ça donne evidement un meilleur resultat que les machines sous equipées d'Apple. Mais il faut encore opter pour du tres "gros" GPU.
Mais on est tres loin des performances d'un GPU sur la carte mere avec des problemes techniques de retour, de latences et de collisions. C'est qu'on rajoute une couche compliqué dans le processus.

En fait ça devient une solution envisageable pour du calcul asynchrone, mais pas pour de l'affichage en temps reel.
Le jeu est typiquement de l'affichage en temps reel et on fait tout pour éliminer les latences. Et ces boîtiers externes eux multiplient les latences de manière importantes.

Donc on en revient a deux constatations:
- pour l'affichage temps reel, il faut un GPU sur la carte mere
- pour le calcul asynchrone (GPGPU, image) un serveur autonome reste la meilleure, la plus souple et la moins chère des solutions.

Et le serveur GPU peut etre un petit PC bon marché, embarquant 1 ou plusieurs GPU, qui a l'avantage de decharger totalement le Macbook Pro (donc le CPU n'est pas mobilisé pendant le calcul), d'etre accessible de n'importe ou du moment qu'on a un acces Internet et il peut aussi etre partagé par plusieurs personnes...

avatar oomu 18/04/2017 - 22:35

du egpu reste pratique pour du calcul depuis un portable utilisé comme station de travail.

Après, il faut comprendre le public de MacG :

beaucoup sont amateurs ou indépendants cherchant à maximiser l'usage de la machine qu'il possède.

Ils vont utiliser des logiciels pour lesquels ils n'ont pas forcément le pendant "client-serveur".

Bien des logiciels demandent des licences, vite onéreuses (en fonction du nombre de noeuds/coeurs/cpu) quand on veut faire du rendu via réseau.

Ou tout simplement on se contente d'un "gros pc pas cher" sur lequel on fait tout en local: on copie son document de travail et assets, par exemple à coup de rsync, on lance le logiciel localement (via un remote desktop ou vnc par exemple) et on laisse tourner.

C'est moins souple que de tout faire depuis sa machine de travail, envoyer et récupérer les rendus via le réseau, le tout intégré dans une chouette interface/console d'administration

mais c'est moins cher.

Bref là où je veux en venir: tout dépend des attentes, des moyens dont on dispose (pour payer les éventuelles licences) et si la commodité de pouvoir tout garder sur son macbook pro et juste avoir à brancher un egpu pour du rendu est séduisante.

-
par "gpu sur la CM", on parle aussi du gpu via le bus pcie ?

-
pour le jeu vidéo et tout ce qui doit être temps réel, le egpu est une fausse bonne idée, sauf , et c'est encore à la rigueur, à y rajouter en plus un écran externe branché au egpu.

avatar C1rc3@0rc 19/04/2017 - 02:01

Je comprend bien ton point de vue, mais il s'agit a mon sens d'une dépense supplémentaire pour résoudre un problème qu'on aurait jamais eu avec une machine (mieux) adaptée aux besoins et souvent moins chere.

C'est une illustration de l'adage "dépenser plus pour en faire moins et de manière plus compliqué"

Quant a l'ecran embarquant un GPU pour le jeu... non.
Ici encore c'est une solution qui demontre l'inadaptation du produit au besoin avec une augmentation du cout pour des performances insuffisantes.

Toutes ces solutions ne sont que des fausses-bonnes idees qui masque le vrai probleme: l'inadaptation du Mac aux besoins de l'utilisateur.

A mon sens il vaut mieux mettre la pression sur Apple pour qu'ils intègrent des GPU dignes de ce nom dans leurs machines, ou en baisse les tarifs histoire qu'on puisse repartir les couts sur d'un materiel adpaté a ses besoins.

C'est que l'idee de Jobs d'un ecosysteme informatique ou les appareils sont limites en puissance et fonctions pour les rendre plus simples et adaptés a des usages specifiques, c'est une bonne idee... a condition que le cout de la machine principale ne soit pas celui de l'ecosysteme. Et ce "decoupage" doit se faire de maniere pragmatique et fonctionnel, pas juste pour augmenter le panier du consommateur.
Sinon, le consommateur il fini par aller voir ailleurs.

Pour ma part, dans certains cas, je ne vois aucun obstacle a deporter le controle sur un iPad et les calculs sur un serveur local. A condition que le cout de l'ensemble soit similaire a une machine integrée et soit plus fonctionnelle...

Maintenant qu'Apple sous dimensionne ses Mac pour une question de design et de rentabilité, c'est une mauvaise chose et ça revient a des solutions shadockiennes pour l'utilisateur.

avatar ErGo_404 18/04/2017 - 22:56

C'est tout à fait adapté au jeu, c'est juste qu'on n'obtient pas les mêmes performances qu'avec une solution "native". Après tout le monde ne cherche pas à grapiller le moindre fps de sa machine.
Déjà, le truc à faire c'est afficher l'image sur un écran externe branché sur la CG et non pas sur le macbook pro. On supprime ainsi le "retour" vidéo qui prend déjà de la bande passante, et on gagne 10/15fps.
Ensuite, sur un jeu le processeur compte aussi et celui des macbook pro est de toutes façons faiblard par rapport à ce qu'on trouve sur un PC fixe, ce qui fait que même avec la meilleure carte graphique on risque d'être un peu bridés à cause du processeur.
Mais il n'empêche que ça permet de jouer sur un macbook pro et ça évite donc l'achat d'une machine dédiée qui prend de la place (et avec tous les inconvénients, comme la maintenance).
Avec les boitiers d'eGPU aux alentours des 300$, ça devient accessible comparé aux modèles de Razer à 500$ et parfois plus.
Je ne sais pas si je le recommanderais déjà, je pense qu'il faut attendre un peu que le marché soit plus mature, mais ça donne envie.

avatar pocketalex 19/04/2017 - 11:33 (edité)

" sur un jeu le processeur compte aussi et celui des macbook pro est de toutes façons faiblard par rapport à ce qu'on trouve sur un PC fixe"

euh ....

avatar Mantout patrick 18/04/2017 - 21:23

Franchement très intéressant.
Sur mon PC qui n'a qu'une carte 1080, je fais le rendu BMW scene CUDA en 188 secondes
Votre rendu rMBP > eGPUx2 V1 (avec 2 cartes 1080) met 93 secondes soit juste la moitié
Il n'y a donc aucune perte de temps avec la connexion ThunderBolt 3

Juste pour la petite histoire, quand je calcule la "BMW scene" non pas avec la GPU mais avec la CPU qui est un Intel I7 6850 à 3.60 GHz http://www.ldlc.com/fiche/PB00209795.html (un truc qui vaut 700 euros quand même) et bien le test de rendu passe de 188 secondes à 367 secondes (soit le double) On comprend donc bien l'importance pour la 3D de cartes graphiques NVIDIA

avatar C1rc3@0rc 18/04/2017 - 22:27

@Mantout patrick

Ben tu compares de l'incomparable.
L'architecture GPU et CPU sont radicalement différentes. Le GPU c'est du calcul massivement parallèle vectoriel. Dans le cas ou le calcul vectoriel est possible, faut oublier totalement le CPU, que ce soit en performances ou en consommation.
De plus, sur un Intel Core i (ou les Xeon iGPU), ce sont les unites vectorielles du CPU qui vont etre mise a contribution et la on a une architecture batarde inadaptée a plusieurs niveaux.

Ensuite faut comparer le Macbook Pro +eGPU face a un PC equipé de la meme configuration GPU sur la CM.
Et la on voit qu'en performances et en consommation le PC est de loin meilleur que la solution qu'est le Macbook Pro + boitier eGPU.

Alors sur un calcul de rendu asynchrone la solution Macbook Pro + eGPU ne sera pas trop handicapée par les latences au moins jusqu'a 2 eGPU. Par contre pour les calculs et affichages en temps reel la cette configuration est inadaptée.

avatar Mantout patrick 18/04/2017 - 22:58

Dans le cas de Blender, tout ce que voulais dire, c'est que l'on a deux possibilités, soit on fait le rendu avec la CPU, soit on fait le rendu avec la GPU. Le rendu GPU à un rapport prix/performance 2 fois plus performant que le rendu CPU, d'où l'importance de la GPU.
Voilou

De plus, si avec boitier eGPU, on obtient globalement les mêmes performances qu'avec une GPU mis dans un PC, on se dit que si Apple veut bien se sortir les doigts du c** il peut faire des Mac Pro avec 2 ou 4 cartes GPU NVIDIA qui soient totalement équivalent à leur concurrents Windows mais avec l'avantage du système OSX qui est quand même plus sympa à utiliser.

avatar C1rc3@0rc 19/04/2017 - 01:57 (edité)

« Le rendu GPU à un rapport prix/performance 2 fois plus performant que le rendu CPU, d'où l'importance de la GPU.»

Ok.
Cela me surprend d'ailleurs que le rapport ne soit que d'un facteur 2 entre le calcul GPU et les calcul CPU.

Et oui, si on obtient les mêmes performances avec un GPU dans un boitier Thunderbolt qu'avec un GPU sur la CM du PC, c'est qu'il y a un gros probleme au niveau du PC...

avatar oomu 18/04/2017 - 22:51

pour cuda, la bande passante TB n'est pas actuellement handicapante.

Barefeats a fait les comparaisons. La différence de bande passante entre pcie X16 et TB3 (et TB2 aussi dans le comparatif) est réelle. MAIS l'impact sur temps de rendu est infime.

http://barefeats.com/bandwidth.html

Tout simplement, avec Cuda, en usage concret, les nvidias sont pas encore en mesure de saturer pcie et à peine TB3 pour que ça devienne intéressant face au temps de calcul. Peut être que cela viendra avec de nouvelles mémoires (HBM ?) ou de nouveaux usages ?

En rendu gpu, les logiciels actuels doivent tout transférer dans la mémoire vidéo, puis ensuite calculer. Il y a peu d'aller-retour entre la ram et la vram par le cpu pendant le rendu 3D.

Le temps perdu pour transférer toutes les données nécessaires devient négligeable face au temps de rendu proprement dit.

-
MAIS encore une fois, c'est dans le cadre de calculs d'images de synthèses, ou "rendu 3d", ou autre calcul intensif dans le gpu.

Ce n'est pas du tout la même chose pour le jeu vidéo (opengl / metal / directX) où ici, ne prime pas la qualité du rendu final et d'utiliser des algorithmes sophistiqués et photoréaliste mais de _minimiser_ la LATENCE (pour que le jeu soit réactif).

Dans le cas des jeux vidéo où à tout moment la "scène" que voit le joueur peut changer et doit vite être recalculée, la bande passante prend une grande importance. La latence (minimiser tous les freins et tous les intermédiaires) est la priorité.

Et là, un gpu via TB3 sera très désavantagé face à pcie x16

avatar Mantout patrick 18/04/2017 - 23:45

Bon j'ai continué mes tests, donc comme je l'ai dis dans mon précédent post, pour un calcul 3D en CUDA, on obtient les mêmes performances, ce qui est déjà très bien.
Par contre pour du jeu vidéo (temps réel; ce n'est pas tout à fait la même chose)
Dans leur vidéo
https://egpu.io/macos-pascal-drivers-gtx-1080-ti-2016-macbook-pro/
ils ont utilisé UniEngine Valley, ils ont une carte plus performante que la miene une 1080 Ti contre une petite 1080
Voilà ce que moi j'obtiens pour Unigine Valley Benchmark 1.0

FPS: 127.2 (eux --> 50.1)
Score: 5320 (eux -->2094)
Min FPS: 30.7 (eux --> 24.1)
Max FPS: 226.7 (eux --> 71.4)
System
Platform: Windows 8 (build 9200) 64bit
CPU model: Intel(R) Core(TM) i7-6850K CPU @ 3.60GHz (3597MHz) x6
GPU model: NVIDIA GeForce GTX 1080 22.21.13.8165 (4095MB) x1
Settings

Render: OpenGL
Mode: 1680x1050 fullscreen
Preset Custom
Quality Ultra

avatar elbacho 19/04/2017 - 00:37

Les chiffres que tu donnes c'est une configuration sans écran connecté sur la carte.
Avec une GTX 970 (stock) sur un MacBook Pro 2016 avec le boitier Akitio Node + écran

FPS: 47,8
Score: 1980
Min FPS: 18.7
Max FPS: 93,1

Preset Extreme HD, Résolution 1920x1080 8xAA sur Mac OS 10.12.4

Quelques résultats en interne sur PC pour comparer:
https://www.reddit.com/r/buildapc/comments/2pjdoo/gtx_970_owners_how_doe...

avatar vache folle 18/04/2017 - 22:33 via iGeneration pour iOS

Étant largement inculte sur ce sujet, est-ce que cela peut-être un achat intéressant pour faire fonctionner Autocad dans un machine virtuelle tournant sur // desktop, le tout en utilisant un MP 2013?
Pour Autocad en VM, pas le choix; le logiciel annexe dont j'ai besoin n'est disponible que sous windaube.

avatar Mantout patrick 18/04/2017 - 23:05 (edité)

Bonjour,
Je croyais qu'AutoCad était disponible sous Mac ?
http://www.autodesk.fr/solutions/mac-compatible-software

On m'aurait trompé :-p

OUPS, j'ai répondu trop vite, c'est quoi ton logiciel annexe ?

avatar vache folle 19/04/2017 - 09:15 via iGeneration pour iOS

@Mantout patrick

Bacad.ch

avatar oomu 19/04/2017 - 01:19

je ne pense pas que ça soit intéressant.

Parrallels, l'hyperviseur, utilise son propre pilote pour pouvoir afficher windows au sein de macOs et non le pilote natif de la carte. Rien que cela va vous faire perdre un gros intérêt d'un gpu puissant.
Cela dit, Autocad est un logiciel opengl sauf erreur de ma part, et les perfs opengl de // sont peut être satisfaisantes maintenant.

Mais le gros soucis c'est le support du eGpu par //
Déjà que c'est encore un beau bordel pour Virtualiser le GPU (paravirtualisation , c'est à dire : que la vm accède au GPU directement sans trop d'artifice logiciel, et cela sans entrer en conflit avec l'os hôte, ce qui ouvrirait la totale puissance du gpu)
mais alors si en plus vous ajoutez Thunderbolt et le eGpu dans tout ça, je pense que c'est se compliquer la vie pour beaucoup de déceptions.

Il faut s'assurer que // gère le eGpu à travers Thunderbolt. Quoiqu'on en dise, ce n'est pas encore transparent pour le système d'exploitation et donc l'hyperviseur.

Et même si j'ai lu qu'externaliser le gpu n'est plus un "hack" depuis Thunderbolt 3, à ma connaissance il faut que le pilote vidéo et l'os s'y attende. Il faut certainement que // (ou autre hyperviseur) le gère.

Sinon, c'est le risque de se retrouver avec Autocad dans une VM qui va superbement ignorer le gpu.

avatar C1rc3@0rc 19/04/2017 - 02:12

@vache folle

Tu te complique la vie pour rien et tu dépenses plus que nécessaire pour des performances et fonctionnalités moindres.
Autocad est typiquement un soft professionnel, prends donc un matériel adapté a ton besoin réel. Ici un PC fera mieux et pour moins cher que l'usine a gas dont tu devrais te satisfaire.

avatar vache folle 19/04/2017 - 09:19 via iGeneration pour iOS

@C1rc3@0rc

Je suis d'accord avec votre commentaire, à ceci près que j'abhorre Windows.

Je n'utilise la vm que pour autocad, toutes les autres opérations sont faites avec macOS.

Si vraiment je me trouve un jour coincé, je réévaluerai mes besoins, mais pour l'instant, je "fini" le MP.

@tous
Merci pour vos réponses.

avatar pocketalex 19/04/2017 - 12:09

@vache folle

Autant faire tourner Autocad sur une machine desktop Mac ou PC véloce (Mac Pro + eGPU, hackintosh, tour PC, ...) et commander cette machine depuis ton laptop Mac (ou PC) avec un logiciel comme Jump Desktop et sa techno "fluid" qui te garantie une fluidité proche des conditions de travail devant la machine originale, il faut juste une bonne connexion entre les deux : même réseau, filaire ou bon wifi, ou à distance en fibre/fibre ou fibre/bon-ADSL ou fibre/4G

ça me parait plus intelligent qu'essayer de transformer un laptop Mac en station de travail PC ...Déja que l'eGPU c'est proche du bricolage mais si en plus tu veux en profiter via une VM ... t'es pas sorti

Pages