eGPU : peut-on utiliser deux cartes graphiques externes ?

Anthony Nelzin-Santos |

Peut-on utiliser deux eGPU en même temps ? La question n’est pas tout à fait idiote. Aucune machine, pas même le nouveau MacBook Air, ne possède qu’un seul port Thunderbolt 3. Disons-le tout de suite, la réponse est positive. Comme souvent toutefois, il ne s’agit pas d’un simple « oui », mais plutôt d’un « oui, mais ».

Blackmagic eGPU.

Apple mentionne clairement cette possibilité dans sa fiche technique dédiée aux processeurs graphiques externes. Elle précise même qu’il vaut mieux « pour des performances graphiques optimales », connecter directement les boîtiers eGPU à votre machine, « et non en série par l’intermédiaire d’un concentrateur ou d’un autre périphérique Thunderbolt. »

Mais attention, ne les branchez pas à n’importe quel port ! Dans les Mac, un contrôleur Thunderbolt gère deux ports, et donc les machines dotées de quatre ports possèdent deux contrôleurs et deux bus. Vous obtiendrez les meilleures performances en branchant un boîtier par bus (lire : Mac Pro : les ports, c’est important, et pourtant…).

Deux boîtiers eGPU embarquant une carte graphique AMD Radeon RX 580, en l’occurence le Blackmagic eGPU et le Sonnet eGFX Breakaway Box 550, connectés sur un Mac mini 2018. Sur cette machine et comme le montre cet exemple, mieux vaut brancher un boîtier sur le premier port Thunderbolt (associé au bus Thunderbolt 0) et l’autre sur le troisième port Thunderbolt (associé au bus Thunderbolt 1). Ces conseils sont aussi valables pour le branchement d’écrans externes, comme l’explique Apple dans une fiche technique spécifique à l’iMac Pro.

Une fois connectés et démarrés, les deux boîtiers apparaissent dans le menulet « eGPU » (lire : Comment utiliser une carte graphique externe avec macOS). Que le système reconnaisse plusieurs processeurs graphiques externes ne signifie cependant pas qu’il est capable de les exploiter. Rares sont les applications capables d’utiliser plusieurs cartes graphiques, rarissimes sont celles capables d’utiliser plusieurs eGPU.

C’est le cas de LuxMark, l’outil de benchmarking basé sur le moteur de rendu open source LuxCoreRender, mais faut-il parler d’outils exploitant OpenCL, désormais déprécié ?1 Blackmagic fournit le plus bel exemple de prise en charge des eGPU avec son outil de montage et d’étalonnage vidéo DaVinci Resolve. Et pour cause ! Blackmagic propose deux eGPU, conçus en partenariat avec Apple, intégrant les circuits graphiques de l’iMac et de l’iMac Pro.

Le panneau de préférences de DaVinci Resolve, exemple d’une parfaite prise en charge de multiples cartes graphiques.

La différence est sensible : armé d’une paire de cartes AMD Radeon RX 580, le Mac mini passe le test Standard Candle en temps réel, ce qu’il est incapable de faire seul. Les préférences de Resolve permettent d’activer ou désactiver l’utilisation des processeurs graphiques, de forcer l’utilisation de telle ou telle API de GPGPU, et même de limiter l’usage de la mémoire.

Si toutes les applications professionnelles offraient les mêmes possibilités ! L’utilisation de multiples boîtiers eGPU serait seulement une question de retour sur investissement. En attendant, c’est au mieux un délire de geek, au pire un pis-aller en attendant un futur Mac Pro permettant d’utiliser des cartes conventionnelles. Les tests menés avec le boîtier Akitio Node Duo, qui peut embarquer deux cartes, en sont la parfaite démonstration.

  1. Pour celui qui a répondu « oui » au fond de la salle : attendez-vous à un triplement des performances avec un eGPU Radeon RX580 sur un Mac mini 2018. ↩︎
avatar fte | 

"attendez-vous à un triplement des performances avec un eGPU Radeon RX580 sur un Mac mini 2018."

Seulement x3 ?

Meh, c'est peu.

avatar xDave | 

@fte

Si 30 minutes deviennent 10, c’est tout de même pas mal

avatar pumk1n | 

@xDave

De même que passer de 20 FPS à 60 FPS...

avatar fousfous | 

Vous imaginez pas trop pouvoir mettre des CG conventionnelles sur les futures Mac Pro, rien que pour les branchements aux écrans externes en TB c'est compliqué. C'est le Mac qui va avoir toute la connectique et les cartes ne seront qu'à brancher comme dans le Mac Pro tube.

avatar fte | 

@fousfous

"Vous imaginez pas trop pouvoir mettre des CG conventionnelles sur les futures Mac Pro"

A ce stade, j'imagine le nouveau Mac Pro comment une pile de Mac mini adaptés.

L'évolutivité chez Apple, je n'y crois plus. Alors l'idée d'un port PCIe, j'avoue que ça ne m'avait pas même effleuré.

avatar fousfous | 

@fte

Bah un Mac c'est pas pour faire comme toutes les tours classiques, Apple est sensé proposer de l'innovation.

avatar fte | 

@fousfous

"Apple est sensé proposer de l'innovation."

Si c'est du genre touchbar, je préférerais pas.

avatar fousfous | 

@fte

C'est toujours mieux que de rester sur des trucs du passé, actuellement avec un clavier normal j'utilise à peine les touches de fonction (juste le son et pause) car elles ne sont pas utiles. Avec la Touch Bar on peut personnaliser et mettre ce qui est utile tout en ayant une interface qui s'adapte aux applications pour avoir des raccourcis (plutôt que de devoir chercher ces raccourcis avec Fn+la touche si on se rappelle laquelle c'est).

avatar oomu | 

le passé et le futur n'ont pas de sens ni d'intérêt. Seul le progrès compte.

Est-ce que toute nouveauté est un progrès ?

Gare à la distraction.

avatar anton96 | 

@oomu

Merci pour ce rappel de cette subtilité tes importantes, on confond beaucoup les deux

avatar fte | 

@fousfous

"C'est toujours mieux que de rester sur des trucs du passé"

J’adore le subtile sous-entendu vieux con très passif agressif.

Sinon, chouette pour toi si tu aimes.

Apple l’a clairement pensée pour les noobs, dans son design comme dans les guidelines. Je n’ai pas besoin qu’on m’assiste, j’arrive à me rappeler de ce que font mes touches. Je suis même absolument à l’aise avec un DAS Keyboard sans sérigraphie aucune. Super clean.

avatar areayoko | 

Je plussoie, la Touch Bar m'a à peine amusé une semaine.
Préférant nettement les raccourcis claviers usuels, qui ne nécessitent pas que je regarde le clavier quand je lance une commande.
A part un certain effet esthétique, je me demande encore à quoi elle sert ...

avatar fousfous | 

@fte

Donc tu connais toutes les touches de tout les logiciels?
Bon et bien sur on oublie le fait que la Touch Bar fait des choses impossibles à faire avec des touches.

avatar fte | 

@fousfous

"Donc tu connais toutes les touches de tout les logiciels?"

Tous ? Bien sur que non.

De ceux que j’utilise, encore heureux. Je ne suis pas comme les policiers des films à taper avec un seul doigt, merci beaucoup.

Je connais aussi les commandes vi, les commandes shell, je sais utiliser git en ligne de commande, et une large palette de raccourcis clavier de jetbrains (les divers IDE de l’éditeur), d’Xcode, de Visual Studio de mieux en mieux, de Keil uVision, de Photoshop, d’Illustrator... et même des caractères spéciaux dans Word. Wow.

Je devrais le mettre sur mon CV comme une compétence rare ?

avatar Dark Phantom | 

@fte

« Je devrais le mettre sur mon CV comme une compétence rare ? »
Clairement :D
Vous faites partie des 1%

avatar fte | 

@Dark Phantom

"Clairement :D"

Purée. Je suis entouré de raretés alors.

avatar Dark Phantom | 

@fte

Ah oui, tout le monde n’est pas codeur

avatar fte | 

@Dark Phantom

Je pensais en premier lieu aux créatifs que je côtoie, qui connaissent parfaitement tous les raccourcis pour Toshop, Premiere, Lightroom, Final Cut, etc. Voire qui créent des macros et autres automations pour accélérer les opérations fréquentes. Et plus généralement à tous les professionnels que je rencontre et qui utilisent leurs outils régulièrement.

Des gens normaux, pas des nerds de caves.

avatar BeePotato | 

@ fte : « Apple l’a clairement pensée pour les noobs, dans son design comme dans les guidelines. »

Si on traduit « noobs » par « gens normaux », c’est finalement plutôt une bonne chose. :-)

« Je n’ai pas besoin qu’on m’assiste, j’arrive à me rappeler de ce que font mes touches. »

Pour quelqu’un qui n’aime pas les sous-entendus « vieux con », il est ironique de nous servir mot pour mot l’argumentation sortie il y a 35 ans face à l’interface graphique du Lisa puis du Mac. ;-)

« Je suis même absolument à l’aise avec un DAS Keyboard sans sérigraphie aucune. »

Pour ma part, même en étant capable de taper sans regarder le clavier (et donc potentiellement d’utiliser un clavier sans marquage, bien que je n’en voie pas du tout l’intérêt), je trouve que le principe de la TouchBar représente une avancée par rapport aux touches de fonctions, avec bien plus de possibilités de personnalisation. C’est juste encore un peu sous-exploité.

avatar fte | 

@BeePotato

"Pour quelqu’un qui n’aime pas les sous-entendus"

Ou as-tu vu ça ? J’adore les sous-entendus fielleux et l’ironie mordante.

Chacun a le droit d’aimer la touchbar. Ou pas. :)

avatar BeePotato | 

@ fte : « Ou as-tu vu ça ? »

Ben dans ton commentaire, auquel je répondais : « J’adore le subtile sous-entendu vieux con très passif agressif. »
Et, contrairement à ce que laisse penser le texte tronqué que tu cites, je ne parlais pas de tous les sous-entendus, mais uniquement de ceux orientés « vieux con », comme tu l’as écrit dans ton commentaire.

Mais peut-être que ce passage de ton commentaire n’était en fin de compte pas ironique du tout et juste à prendre au premier degré, et que tu as donc réellement adoré ce sous-entendu.

avatar fte | 

@BeePotato

"juste à prendre au premier degré"

Rien n’est à prendre au premier degré. Pas sur internet. C’est une erreur fatale.

avatar pocketalex | 

@fte

"ien n’est à prendre au premier degré. Pas sur internet. C’est une erreur fatale."

si je peux me permettre .... oui, bien sur ????

avatar fte | 

@pocketalex

"oui, bien sur ????"

Tu as le spirit ! ?

avatar fte | 

@BeePotato

"C’est juste encore un peu sous-exploité."

Les démos lors de la présentation initiale étaient assez avancées et totalement stupides, on en voit pas la couleur aujourd’hui avec raison.

Un peu sous-exploité ? C’est une façon de le dire. C’est je pense surtout que les devs ont compris que ça n’avait aucun sens de proposer un contrôle visuel lorsqu’il faut le masquer du doigt pour l’utiliser. Ça rend super sur écran géant lorsqu’il n’y a pas de doigt dessus. Moins en vrai. Du coup, ce sont des touches de fonction, mais sans retour tactile ni mémoire musculaire.

Je (moi, dans mon coin) trouve ça stupide.

avatar byte_order | 

@BeePotato
> il est ironique de nous servir mot pour mot l’argumentation sortie il y a 35 ans face
> à l’interface graphique du Lisa puis du Mac. ;-)

35 ans après, il y a toujours des noobs (mais proportionnellement moins nombreux qu'avant) et des gens qui connaissent et exploitent plus profondément les outils informatiques (proportionnellement plus nombreux qu'avant), y compris en utilisant des interfaces non clickodromes mais sacrément plus efficace quand il s'agit d'automatiser des choses de manière répétitive, scripts, raccourci clavier, macros...

Opposer les besoins "noobs" aux besoins de productivité sous prétexte que les noobs n'en n'ont pas besoin, c'est en substance considérer qu'aucun besoin des noobs du présent n'évoluera vers des besoins d'être plus productif à l'avenir.

Je ne crois pas à l'éternel noob. Les noobs d'hier ne sont pas tous encore des noobs aujourd'hui. J'vois pas pourquoi cela serait différent pour les noobs du présent non plus.

Les digital natives sont de plus en plus nombreux, et leur niveau de "noobitude" est déjà nettement moindre que celle des populations précédentes des utilisateurs lambda.

D'ici 35 ans, l'immense majorité de la population mondiale aura une expérience avec les outils informatiques avant d'être adulte. Prétendre qu'ils ne chercheront pas des gains de productivité dans leurs usages est ridicule, tout comme de prétendre que les interfaces "simples" actuelles peuvent y répondre sans problème.

Bon, d'ici 35 ans, l'humanité aura un autre problème plus grave, remarquez, alors, bon...

avatar BeePotato | 

@ byte_order : « 35 ans après, il y a toujours des noobs (mais proportionnellement moins nombreux qu'avant) et des gens qui connaissent et exploitent plus profondément les outils informatiques (proportionnellement plus nombreux qu'avant), y compris en utilisant des interfaces non clickodromes mais sacrément plus efficace quand il s'agit d'automatiser des choses de manière répétitive, scripts, raccourci clavier, macros... »

C’est amusant comme ta longue histoire de « noobs vs demi-dieux » et de « clickodromes » me rappelle aussi beaucoup ce que j’entendais il y a 35 ans sur ce sujet. :-)

Ah, au fait, puisque le débat portait sur la TouchBar : il n’y a aucun clic, donc aucune histoire de clicodrome à imaginer ; et vu que c’est une zone offrant des possibilités de programmation bien plus complexes que de simples touches de clavier, elle est « sacrément plus efficace quand il s'agit d'automatiser des choses de manière répétitive, scripts, raccourci clavier, macros ». ;-)

avatar Dark Phantom | 

@fousfous

Vive le futur Mac Pro ! Quel qu’il soit !

avatar cbdw | 

le nouveau macbook air ne possède pas deux port Thunderbolt

avatar cbdw | 

bonsoir

le nouveau macbook air ne possede pas Deux ports Thunderbolt 3 ?

avatar KimchiMan | 

@cbdw

Si, mais avec un seul contrôleur.

avatar corben | 

Est ce que le fait de brancher un
EGPU sur un Mac Mini aurait tendance à le solliciter davantage et donc le faire chauffer ?
Je pose la question car ce périphérique a pour but d’apporter un supplément de puissance de calcul graphique, cela dit je me demandais si cela entraînait aussi un besoin supplémentaire en général du Mac ?
J’imagine que sur la partie graphique la carte graphique va faire son propre boulot mais qui dit plus de calcul dit aussi sollicitation du CPU non ?
Un logiciel gourmand va donc forcément solliciter d’une part le GPU mais également le CPU ?

avatar Ielvin | 

@corben

Ça dépends si le programme a été optimisé pour .
(Info lue sur les différents articles macg). Ils en parlent mieux que moi.

avatar Blanc Noir | 

Aujourd'hui, pour DVR, je préconise un PC (de joueur) à 2000 €
Depuis 10 ans, Apple n'a rien fait pour nous (vidéastes, monteurs).
Et je ne pense pas que ça va changer...

avatar olivemac | 

Si Apple a fait FCPX l'appli de montage la plus souple et la plus puissante que j'ai pu utiliser toutes plateformes confondues.

avatar corben | 

@olivemac

Encore faudrait il que FCPX sache déjà ouvrir tous les formats de fichiers ce qui
n’est pas le cas :(

avatar Florent Morin | 

Je crois que c’est la configuration utilisée par Apple pour faire tourner 10 simulateurs en même temps pour les tests automatisés dans Xcode.

avatar ashurao | 

Hello,
@anthony, ce serait possible de tester cette configuration bi-GPU sur cinema 4D R20 avec Pro render. Pro render étant capable d’utiliser une CG pour accélérer les calculs, est-il capable d’exploiter plusieurs GPU?

avatar ashurao | 

Merci d’avance!!

avatar bahzil | 

@ashurao +1 ??

avatar 0MiguelAnge0 | 

J’aime bien le commentaire à la fin!

Black Magic vend un outil et est donc un peu obligé de se bouger.
Quant aux autres, ils ont aussi le droit de réflêchir au retour sur investissements pour les 2 ou 3 tondus qui s’obstinent à faire du traitement video avec des Mac sous motorisés!

Je trouve d’un infini ridicule de voir des machines de plus en plus fines avec de plus en plus de boîtiers auxiliaires tout autour.

avatar areayoko | 

Je ne sais pas s'il y a des stats qui montrent clairement le ratio de pro video tournant sous windows / mac mais ça m'intéresserai.

avatar Frodon | 

En effet, deux boitiers externes ce n'est pas financièrement intéressant, et au mieux c'est un truc de Geek.
Et en effet le boitier Akitio Node Duo, qui peut embarquer deux cartes, ce n'est pas mieux, car il n'exploite lui qu'un seul connecteur Thunderbolt 3 et donc divise les lignes PCIe allouées aux GPUs par 2.

Ce qu'il faudrait, c'est un boitier pouvant embarquer 2 cartes mais se connectant sur 2 connecteur Thunderbolt 3, 1 pour chaque carte GPU. Là cela pourrait potentiellement être intéressant, car le boitier pourrait certainement coûter pas beaucoup plus cher qu'un boitier classique à 1 GPU 1 connecteur, et proposer 4 lignes PCIe par GPU.

avatar melaure | 

Tout ce bazard juste parce qu'Apple ne veut pas sortir une vraie tour façon PM G4 afin d'avoir tout en interne et les performances MAX qu'on aura JAMAIS avec un truc externe !!!

Quand à la remarque du neuneu fanboy sur les tours qui sont un truc de vieux ... si c'est ça qu'Apple draine, ça devient vraiment une communauté de pauvres types ...

avatar BeePotato | 

@ melaure : « Tout ce bazard juste parce qu'Apple ne veut pas sortir une vraie tour façon PM G4 afin d'avoir tout en interne et les performances MAX qu'on aura JAMAIS avec un truc externe !!! »

En effet.
Et en plus, ils étaient superbes, ces G4.

avatar pocketalex | 

@melaure

il reste le hackintosh

Et là, tu peux mettre 2 GPUs. Reste à trouver les apps qui savent les exploiter

avatar Pipes Chapman | 

en même temps un mec comme melaure parle alors qu'il n'est pas concerné par ce genre de machine puisqu'avant même d'être retraité il n'était qu'un amateur en matière de vidéo :)

avatar pocketalex | 

@Pipes Chapman

Je suis loin d'être le copain de @melaure, je passe même la majorité de mes réponses à ses commentaires à calmer son trollisme, mais ce n'est pas pour autant que le jour ou quelqu'un écrit un truc pas déconnant qu'il faut pas le souligner

Et, pour une fois, il n'a pas écrit un truc déconnant : il manque vraiment une solution desktop professionnelle qui ne soit pas un "concept" au design hyper léché, mais totalement à coté des attentes des utilisateurs "pro".

Par "pro", j'entends essentiellement la portion d'utilisateurs dont les métiers et les logiciels évoluent régulièrement, les besoin de puissance aussi bien RAM, CPU que GPU évoluent tout aussi régulièrement, et donc en recherche d'une solution informatique qui peur suivre cette évolution, et la seule qui tient la route à tous les niveaux s'appellent la tour extensible, celle qu'apple appelait le "Mac Pro" jusque 2012

Souder les composants sur une station de travail, c'est lui donner une durée d'exploitation de quelques mois, 1 ou 2 années tout au plus. C'est le concept du Mac Pro poubelle : génial à sa sortie, inutile 1 an après.
Il est par ailleurs intéressant de constater que les utilisateurs de Mac Pro "tour" on permis à leur station de travail de suivre les évolutions CPU, GPU, SSD, Ram, et donc d'avoir des machines pour la plupart encore opérationnelles aujourd'hui, alors que les Mac Pro poubelle sont figés dans des performances d'un autre temps

Si Apple sort une machine "pro" en 2019 avec un ou deux spots PCI accessibles, force est de constater que @melaure aura raison sur ce point (je dis sur ce point, pvrcequ'il raconte quand même pas mal de conneries sur d'autres points)

Et je ne vois pas comment Apple ne pourrait pas sortir une machine "pro" sans slot PCI accessible. Si ils ne le font pas, alors ils vont ressortir le Mac Pro poubelle, c'est à dire une machine dont la modularité passe par des ports d'extensions qui, aussi rapides soient ils, restent des goulets d'étranglement. Un eGPU, c'est un GPU bridé par un goulet d'étranglement. C'est génial pour un laptop, mais ça reste une ineptie pour un desktop

Je sais que ce n'est pas dans les canons actuels d'Apple que de faire du ouvrable et extensible, mais restons clairs, directs et logiques : ce n'est pas sur ce segment qu'Apple va faire son beurre. L'iMac Pro, c'est un machine qui ne rapporte rien, à mon humble avis, à Apple. La marge sur cette machine est à mon avis ridicule, et ajoute à ça des chiffres de ventes plus que confidentiels, rapporté à ceux du MacBook Air, de l'iMac, de l'iPad ou de l'iPhone, donc partant de là, pourquoi ne pas proposer ce que les utilisateurs de la cible attendent ? Plutôt que de répliquer le concept des machines grand public (design avant tout, fermeture du matos pour éviter les emmerdes et don apporter une forme de simplicité, etc) ...
Je pose la question, messieurs d'Apple si vous me lisez...

avatar Dwarf | 

Merci MacG pour cet article interessant sur le plan technique et sur les possibilités qu'il permet d'entre-ouvrir.

Pourquoi faut-il toujours que les commentaires dérivent sur ce qu'Apple ne fait pas et autres disgressions! Sérieux, le sujet de l'article c'est "l'utilisation de 2x eGPU avec les macs actuels" !

Je vais en faire râler certains, et bondir d'autres, mais cet article correspond parfaitement à mes besoins en matière d'information. Je suis aujourd'hui, pile dans le cœur de cible de sujet. En effet, tournant sur un hackintosh depuis maintenant 10ans, j'ai décidé de le remplacer, non pas par une version plus actuelle d'un Nième Hack, mais par ce petit Mac mini sur lequel je pourrais à terme et si j'en ressens le besoin lui associer un eGPU.

Je ne suis pas un pro (au sens 1er du terme) de la vidéo, juste un amateur passionné qui utilise son ordinateur pour faire du montage vidéo simple de vidéos de vacances, de mariage ou d'événements qui n’intéressent personne ici ! J'utilise très massivement Lightroom, Photoshop et d'autres logiciels de la suite Adobe et mon Hack actuel s'essoufle à chaque lancement de logiciel.

J'ai fait le choix de passer au Mac mini pour une bonne et simple raison. Le Hack ne m'intéresse plus. J'ai commencé l'aventure avec Snow Leopard et son installation qui demandait l'utilisation d'un boot loader sur CD (iBoot), puis j'ai évolué avec les différentes versions de Mac OS (et les bootloader associés tels que Chameleon et maintenant Clover). Les tweaks et autres lignes d'arguments interminables pour faire en sorte que la machine démarre, avec la peur au ventre de voir ou pas un kernel panic à cause d'un Kext qui ne se charge pas ou qui n'est pas bon ! ...
Les mises à jour mineures qui font planter le système audio ou qui peuvent ruiner le pilote graphique, ou les galères pour mapper correctement les ports USB à cause de certaines limitations du nombre maximal de ports USB; les éditions des fichiers plist pour injecter des FakeID ou remplacer des chaines de caractères pour pouvoir prendre en compte les contrôlleurs USBXHCI de nos cartes mères ASUS, GIGABYTE et autres, etc... bref, tout ça ras le bol au bout d'un moment !

Alors oui le Hack a été une formidable expérience pour moi car elle m'a permit de découvrir l'univers d'Apple et son Ecosystème. Mac OS est un OS très stable qui à ses avantage par rapport à Windows; A noter que j'utilise les 2 systèmes chez moi dans la mesure où madame, elle, n'accroche pas à OS X.

J'y reviendrai peut-être un jour si mon envie de rebidouiller me reprends, mais pour le moment, c'est la recherche d'une machine sobre, legère, avec un bon niveau de performance et le cas échéant transportable qui m'a fait opter pour ce nouveau mac mini. J'en ai marre de ma tour de 10kg+ à transporter lorsque je dois faire qq formations ponctuelles. Je n'ai pas l'utilité aujourd'hui d'un portable dans la mesure où je suis équipé d'un écran orienté photo qui me convient très bien et je possède un portable sous windows pour que madame puisse aussi l'utiliser en vacances.

Bref, tout ca pour dire que je trouve que c'est une très bonne nouvelle de savoir qu'on peut associer une ou plusieurs carte graphique externes pour faire un bond en performance.

L'article ne dit pas que cette architecture s'adresse aux pros qui font du montage toute la journée encore que ... rien n'empêcherait un pro (ou une boite de production vidéo) d'investir massivement dans des eGPU pour en exploiter la puissance de calcul.

Vous êtes tous, ou presque à vous plaindre que les Mac sont chers (c'est une réalité que je ne conteste pas), qu'une machine sous Windows ou qu'un Hack fait mieux partout.
Mais jusqu'à preuve du contraire, les machines sous windows ou les Hacks ont encore un coût supérieur à une simple carte graphique !

La technologie à certainement encore besoin de mûrir mais sait-on jamais, dans 1 ou 2 ans (si les éditeurs de logiciels phare s'y mettent sérieusement), il n'est pas dit qu'une station de travail vidéo ne se résume pas à :
- Une petite machine comprenant un ou 2 processeurs puissants
- Mémoire confortable
- disque système de 512Go ou 1To

- le tout couplé à une batterie de carte graphiques externes qui seraient utilisée pour le calcul vidéo
- serveur ou gros disques de stockage des données

Et aller, on se prend même à rêver un peu ??? Cette batterie de cartes graphiques seraient un mix de cartes AMD et NVidia, ce qui permettrait de pouvoir utiliser l'une ou l'autre en fonction des affinités des logiciels

avatar pocketalex | 

@Dwarf

Pas vraiment

Un eGPU coute le prix de la carte graphique + le prix du boitier + le prix du câble (qui peut ne pas être négligeable du tout, surtout si tu veux 1m au lieu de 50cm) + le prix du travail pour monter tout ça

Une carte graphique coute le prix de la carte graphique, et ses performances seront à 100% de ce qu'elle peut offrir

Avec un eGPU, tu perds d'office 20 à 30% de puissance, à cause du TB3 qui est moins rapide qu'un bis PCI de carte mère

Donc le eGPU, c'est plus cher pour moins de performances, il est normal que certains râlent ici

Cette solution est parfaite pour un portable, cela permet de privilégier une machine puissante en CPU et dotée d'un GPU correct, et de privilégier une certaine finesse et une bonne autonomie, et le MacBook Pro 15" est un bon marqueur dans ces domaines, et d'avoir la puissance d'un vrai bon gros GPU en mode "je suis au bureau", tout en acceptant une légère perte de quelques pourcents, c'est OK, ça fait partie du deal

Mais pour un desktop, c'est un peu, quelque part, complètement con, car cela oblige à multiplier les cout, le volume, le bruit, les câblages, pour au final avoir pour plus cher, moins de performances que si on pouvait ajouter un vrai carte dans un vrai slot. C'est un non sens, et certains le relèvent ici à juste titre.

Bref il manque au Mac une alternative desktop au mini, un truc plus gros, pas forcément "Xeon/ram ECC", un bon i7/i9 desktop et de la RAM conventionnelle seraient tout aussi bien, mais un ou deux spots PCI pour accueillir une VRAIE carte graphique, et en bénéficier pleinement. Et suivre les évolutions des composants, donc pérenniser sa machine, aussi.

CONNEXION UTILISATEUR