Boîtier eGPU : arrêt prématuré pour le Wolfe

Mickaël Bazoge |

Le Wolfe était un projet qui, sur le papier, avait de quoi intéresser bon nombre d’utilisateurs de Mac. Pour pallier l’habituelle faiblesse des cartes graphiques des ordinateurs d’Apple, ce projet Kickstarter proposait une solution élégante prenant la forme d’un boîtier abritant une GTX 950 ou une GTX 970 (lire : Wolfe : un boîtier eGPU pour Mac). Le Mac, relié au Wolfe via Thunderbolt, aurait profité de la puissance de la carte graphique de Nvidia.

Mais après avoir récolté plus de 320 000 $, les créateurs du Wolfe ont dû mettre un terme prématuré à leur campagne. Ils expliquent que le projet a attiré l’attention « d’importants acteurs de l’industrie » qui ont bien fait comprendre aux inventeurs du boîtier qu’ils allaient au devant de grosses déconvenues : « Il est devenu évident qu’il y aurait une certaine incertitude quant à l’obtention des certifications essentielles pour la version Thunderbolt 2 (et par conséquent macOS) du Wolfe ».

Cette douche froide a forcé les porteurs du projet à y renoncer. Les investisseurs enthousiastes (et déçus) seront remboursés des sommes versées. L’équipe en charge du défunt boîtier promet néanmoins de revenir avec un « meilleur produit » conçu avec de « nouveaux partenaires industriels ».

L’arrêt brutal de ce projet était à prévoir : si le concept est séduisant, sa mise en œuvre se révèle beaucoup plus complexe (lire : Attention au « leurre » des boitiers eGPU pour Mac). Il existe bien une solution sur le marché, le BizonBOX 2, mais ce boîtier équipé d’une carte Nvidia reste très onéreux avec des résultats mitigés.

avatar byte_order | 

Faut p'tet le lire un peu aussi, non :

"Our success has attracted the attention of some big players in the industry, who recently reached out to us about the Wolfe. Through these conversations, it became clear there would be some uncertainty in attaining the product certifications essential for the Thunderbolt 2 (and thus macOS) versions of the Wolfe."

Ils arrêtent parce qu'ils ont trop d'incertitude sur la certification de leur produit pour TB2 et donc (c'est écrit noir sur blanc) pour macOS. Mais cela n'a aucun lien avec Apple !?

avatar Lonesome Boy | 

@byte_order :
Ils disent que le problème vient de la TB, et "donc" ("thus") macOS. Donc le problème c'est bien n'a certification en premier lieu.

avatar byte_order | 

Le support d'un périphérique TB n'est pas matériel uniquement. Sans support par l'OS, le périphérique ne marchera pas, car il ne sera pas géré par l'OS. Voir pas reconnu par l'OS.

Hors là, le Wolfe visait à permettre à une carte nVidia d'être branché, via TB2, sur un ordinateur sous macOS. C'est pas le cable, ni le connecteur qui certifie que cela va fonctionner, et cet aspect purement interface physique est effectivement l'objet d'un certification par Intel, mais cette certification ne garantit nullement que l'OS, lui, acceptera de gérer le périphérique, quand bien même l'interface physique est totalement conforme.

Hors, ce n'est pas Intel qui garantit qu'un périphérique TB physiquement conforme va être correctement géré par l'OS, mais bien l'éditeur dudit OS. C'est d'ailleurs clairement indiqué sur le lien concernant la certification TB donné plus haut.

Hors, ici, l'OS visé c'était macOS.
Et Apple contrôle macOS. Et l'UEFI de ses Macs. Et les pilotes installables.
Et y'a une rumeur assez solide que Apple travaillerait à un combo ecran + eGPU.

Vous ne voulez pas relier les points, libre à vous. N'espérez pas que tout le monde s'y refuse pour autant.

avatar awk | 

@byte_order :
Là tu mélanges tout

La question du non support de certaines carte par macOS ne peut nullement être considéré comme une volonté de blocage de cette si dangereuse proposition.

avatar awk | 

@Lonesome Boy :
Byte_Order me surprend parfois dans ses entêtements

avatar Lonesome Boy | 

@Lonesome Boy :
De "la certification TB" pardon

avatar awk | 

@byte_order :
Non la certification TB ne dépend pas d'Apple

avatar awk | 

Intel met clairement en avant le potentiel de la base PCIe du Light Peak devenu TB depuis le début.

L'arrivée de la troisième itération offre enfin de véritable possibilités de concrétisation de ce potentiel, mais il faudra, à mon sens, un certains temps avant que des offres réellement mature soient sur le marché.

Nous sommes encore clairement dans une phase de transition sur ces questions.

Il sera d'ailleurs intéressant de voir si la rumeur annonçant un nouvel AppleDisplay intégrant une GPU se concrétise.

avatar bobdu87 | 

Une belle aberration en vue cette histoire d'écran... Connaissant Apple, dans le meilleurs des cas il aura une polaris 480, qui ne brille pas par ses performance sur mac (http://barefeats.com/sierra_rx480.html) soudé dans un écran. Autant dire qu'à sa sortie, cet écran sera déjà limite surtout avec un résolution en 5K, un ans après sa sortie il sera totalement dépassé...

avatar awk | 

@bobdu87

Intégrer un éléments à obsolescence relativement rapide (une GPU) à un élément à obsolescence lente (un écran) est effectivement discutable.

Cela dit il y a la même démarche avec les iMac est cela n'a en rien obéré leurs succès.

Il y a sans doute un marché de niche pour ce type d'offres;

"un ans après sa sortie il sera totalement dépassé..."

ça cela ne veut rien dire, le fait qu'il y est mieux sur le marché ne change pas l'usage de ce que l'on possède.

C'est une grande aberration que de croire que par ce qu'il y a plus puissant sur le marché ce que l'on possède devient inutilisable.

"dans le meilleurs des cas il aura une polaris 480"

Et alors, cela définira des usages et des cibles .. rien de plus

Se masturber sur une fiche technique est assez stérile.

Soit ça adresse tes besoins, soit cela ne les adresse pas.

Et ce n'ayant pas les mêmes besoins que toi ne sont pas pour autant méprisable.

avatar macfredx | 

@bobdu87 :
Tu as l'adresse de ta voyante ?

avatar awk | 

@macfredx

Si jamais le produit arrive sur le marché rapidement les chances d'y voir autre chose comme type de GPU sont quand même très faible, l'inférence me semble fort recevable.

Apple est semble-t-il toujours lié par son accord avec AMD pour l'instant, les enjeux thermique sur un moniteur de ce type sont du même acabit que ce de l'iMac, les enjeux d'Apple ne se portent pas actuellement vers les performances 3D extrême .... le faisceaux de prémisses et suffisamment solide pour que cette inférence puisse difficilement être classé dans les produits des "arts divinatoires"

avatar françois bayrou | 

Les offres matures, elles sont là.
Certaines étaient même en avance. C'est l'utilisateur qui n'est pas mature !

Le super-GPU a-moi-tout-seul-juste-en-dessous-de-mon-bureau-que-c'est-que-moi-qui-l'utilise, c'est mort, ca ne sert plus à rien, à part satisfaire l'ego de son propriétaire.

il y a encore des cons pour s'installer des OpenOffice Base, ou s'acheter des Mac Pro, et qui, forcément, frémissent à l'idée que le prochain OS ne supporte pas leur base de données, ou que le prochain Mac Pro puisse être sous ARM - pour peu qu'il sorte un jour - alors qu'on a dépassé cette barrière il y a bien 15 ans.

avatar awk | 

@françois bayrou

"Les offres matures, elles sont là.
Certaines étaient même en avance"

Désolé mais je ne partage absolument pas ce point fie vu que ce soit pour Mac ou pour Wintel.

Rien sur le marché ne peut prétendre à la maturité d'un usage performant, facile et transparent

avatar awk | 

@françois bayrou

"Le super-GPU a-moi-tout-seul-juste-en-dessous-de-mon-bureau-que-c'est-que-moi-qui-l'utilise, c'est mort, ca ne sert plus à rien, à part satisfaire l'ego de son propriétaire."

C'est très caricatural et très faux, tu tombes, je trouves dans l'excès inverse de celui de ceux qui veulent un GPU monstrueux sans en avoir besoin.

Il y a de nombreux usages où un GPU puissant est très important et pas que pour faire de la 3D, même si ce sont des usages de niches.

Sans même parler du jeu.

Le marché existe toujours même s'il ne concerne qu'une petite part de la base installée, après pour ce qui est de son excisante sous macOS c'est une autre histoire ;-)

avatar bobdu87 | 

"Le super-GPU a-moi-tout-seul-juste-en-dessous-de-mon-bureau-que-c'est-que-moi-qui-l'utilise, c'est mort, ca ne sert plus à rien, à part satisfaire l'ego de son propriétaire."

Et ben alors mon petit francois on se lache?
Pas besoin de GPU pour relever tes 3 mails et aller sur macg.
Il existe aussi des gens qui travaillent et qui ont besoin de puissance...

avatar awk | 

@bobdu87 :
Après il n'a pas tort sur l'existence d'une catégorie d'utilisateurs surévaluant leurs besoins

Ceci dit on peut acheter une Porsche pour le plaisir de l'objet en la sous-exploitant

Je ne condamne pas tant que ces amoureux de la fiche technique ne méprisent pas ceux qui ne partagent leur passion;-)

avatar françois bayrou | 

Oui je me lâche
Et oui je n'ai pas besoin d'un GPU pour relever mes 3 mails, et c'est bien pour ça que je bosse sur un mac :)
Et quand j'ai besoin de recompiler OpenCV je le fais sur un CPU dans le clawd
Et quand j'ai besoin de jouer j'ai ma PS4 à 300 balles : 200 Euros de moins que ce boitier vendu vide
Je te le laisse

Je ne connais plus personne qui a besoin de puissance et qui a besoin de l'avoir sous le nez

Les rendus 3D ou conversions vidéo peuvent se faire à distance
Les compilations aussi
On n'a même pas besoin de savoir ou se situe le CPU qui chauffe
est il en Chine ou à Roubaix ? ca me fait une belle jambe de le savoir

Vous avez 10 ans de retard

avatar bobdu87 | 

"Je ne connais plus personne qui a besoin de puissance et qui a besoin de l'avoir sous le nez"

Tu dois pas connaître grand monde mon pauvre!!!
Et toujours le bon gros troll de service avec le bon sous entendu du mac user hautain, les GPU c'est juste pour faire mumuse...
Quand on bosse dans le temps réel, les GPU dans le cloud ça fait bien rire...

Quelle belle bande de con chez Apple, pas besoin de mettre un GPU dans l'iphone, francois s'en occupe. Mais attention ça fait tellement longtemps qu'il est dans les nuages que c'est un peu embrumé...

avatar awk | 

@françois bayrou :
Là tu décornes franchement sur les besoins de puissance en local pour bien des usages;-)

Je suis plus que d'accord sur le fait qu'ils sont bien moins largement partagé sue dans le passé, que des alternatives se développent... mais tu jètes le bébé avec l'eau du bain;-)

avatar byte_order | 

> Je ne connais plus personne qui a besoin de puissance et
> qui a besoin de l'avoir sous le nez

Ben c'est pourtant simple : celui qui doit l'avoir sous le nez en a besoin. Que ce soit pour le louer à toi ou l'utiliser lui même ne change rien, le besoin existe.

Par ailleurs, merci de ne pas prétendre qu'une ferme de CPU atteint le même ratio performance / cout qu'un duo de GPU. Y'a tout un pan de calcul qui vont x100 x1000 plus vite sur des GPU que des CPU. Qu'ils soient sous votre nez ou pas ne change rien sur ce point.

Il n'est pas interdit de penser que des fermes de GPGPU dans le cloud soit pas loin d'être faisable, mais les débits d'IO sont parfois énormes et, là, le cloud devient le goulot d'étranglement.

Hors tout le monde n'a pas un connecteur SFP+ chez soi.

avatar awk | 

@byte_order :
Sur les ferme basée sur le gpgpu il y a déjà des offres tous comme pour les serveurs en racks intégrant des GPU

avatar byte_order | 

Oui, en effet, mais il faut un lien réseau à haut débit entre vous et ces fermes pour que ce lien ne devienne pas illico le goulot d'étranglement. En gros, en général vous faites tourner votre application *sur* des serveurs hébergés dans la même infrastructure réseau que ces fermes de calcul.

Dans le cas d'une majorité de particuliers, le lien à leur disposition est loin d'être à la hauteur.

Pour certains calculs, c'est pas forcément un problème, en particulier si les données en sortie sont moins nombreuses qu'en entrée, mais c'est pas toujours le cas.
Et ensuite y'a toujours le problème de la la fréquence à laquelle ces calculs doivent tourner.

Bon, évidement, depuis mon point de vue dev d'analyseur RF full band temps réel, j'ai un biais, mais je vois mal comment un jeu vidéo ou un soft de rendu 3D ou vidéo pourrait tourner correctement sur des fermes de calcul avec les débits réseaux actuels disponibles chez les particuliers...

Et surtout, je ne vois pas en quoi cela rend caduque le besoin de [GP]GPU toujours plus puissant...

avatar Alim | 

La meilleure solution d'obtenir un Mac avec un GPU décent est l'hackintosh, et rien d'autre.
Impatient de voir la nouvelle fournée de Mac fin octobre. Je sens que leurs spécificités vont encore m'éclater de rire..

avatar awk | 

@Alim :
Très puissante analyse, bravo c'est remarquable de force et de vista

Moi aussi j'adore les spécificités des produits Apple c'est bien plus important que les spécifications pour le succès commercial nous sommes enfin d'accord sur un point

avatar Alim | 

@awk

Ce n'était pas une analyse.
Ton commentaire est inutile.

avatar awk | 

@Alim :
En fait on est en droit de se demander ce que c'était.

Pour la première partie il s'agit clairement d'un constat même s'il est étrangement formulé.

Mais pour la seconde c'est plus trouble :-)

"Je sens que leurs spécificités vont encore m'éclater de rire.."

Qu'elle est le sens de cette étrange phrase ?
Qu'elle en est la portée ?

Je me perd en conjectures

avatar Alim | 

@Alim

"Qu'elle est le sens de cette étrange phrase ?
Qu'elle en est la portée ?"

C'était une prévision strictement personnelle qui n'engage que moi. J'ai parlé à la première personne du singulier, je ne sais pas si tu as remarqué ? En gros, faut pas chercher plus loin.
Tu te prends la tête rien, pour pas changer... ;)

avatar awk | 

@Alim

Ce n'est pas le fais que tu avances une opinion personnelle que je questionne, mais le sens même de la phrase :

"Je sens que leurs spécificités vont encore m'éclater de rire.."

Cela veut dire quoi ?

Ton usage du terme spécificités me laisse dubitatif

avatar perceval78 | 

Les débits TB ou autres ont atteint de tels sommets que l'utilisation de ceux-ci avec des cartes vidéos 3D externes devient possible.
C'est pas nouveau, les chinois propose déjà ce genre de chose pour les portables équipés d'un slot M.2 (sata) pour brancher une nappe reliée a un boitier PCIe 16x dans lequel se loge une carte vidéo.
Ca marche. Des 100aines de vidéos (bizon et autres) démontrent leur efficacité pour les jeux gourmands que les GPU Intel ou ATI intégrés à Apple ne peuvent pas faire fonctionner de façon optimale.
Pour les petits gars de kickstarter, c'est surement la perspectives de procès de patent troll qui les a dissuadé de continuer ce projet.
Du coup il faut faire confiance aux chinois pour sortir ces boitiers a des tarifs plus raisonnables.

avatar byte_order | 

Sous macOS, les solutions eGPU à la Bizon reposent sur des solutions issues du hackintosh.
En théorie, elles ne sont donc pas compatible avec la SLA de macOS, ce qui pose un léger problème lorsque vous voulez vendre un produit avec un joli logo Mac sur la boite.

Accessoirement, en TB2 le retour sur l'écran interne d'un Mac est source d'une grosse perte de performance, ce qui limite l'intérêt. Pour du calcul CUDA, par contre, pourquoi pas.

avatar omarion-88 | 

Double blocage de la part de Apple et de intel ...

Et c'est évidement pour garder une cohérence dans leur garde, qu'elle est l'intérêt de prendre le 15" à 2500 si pour ce même prix j'ai plus puissant ....

Ça fonctionne très bien, sauf que sous mac il faut obligatoirement un écran externe.

L'excédent de puissance permit par ma 970, protege des chauffe prolonger et donc augmente aussi sa duré de vie

avatar awk | 

@omarion-88 :
Certains raconte qu'ils n'en dormaient plus la nuit tellement le projet leur faisait peur :-)

avatar awk | 

Ce qui est intéressant c'est que fort peu envisage ce qui a la plus grande chance d'être la réalité.

Les mecs ont classiquement "pété plus haut que leurs cul" et totalement sous-estimé les défis, les investissements, les pb ... qu'ils rencontreraient pour transformer un sympathique bricolage en produit commercialisable, utilisable et fiable.

Rien que la sommes de 300 k€ potentiellement levée fait rigoler pour qui connait un peu ce type de business.

D'autant plus que des acteurs autrement sérieux et armés arrivent sur ce marché obérant les éventuelles ROI du projet s'il avait aboutis.

Pages

CONNEXION UTILISATEUR