Mieux qu'un hackintosh : construisez l'équivalent d'un superordinateur de 2002 pour 3000 $
Au début des années 2000, Apple s’était lancée sur le marché des supercalculateurs. Réalisé en collaboration avec l’institut Virginia Tech, Big Mac a été l’espace de quelques mois le troisième superordinateur le plus puissant au monde. Cette machine était composée initialement de 1 100 Power Mac, qui avaient été par la suite remplacés par des Xserve.
Ce superordinateur avait coûté 5,2 millions de dollars et était capable de monter jusqu’à 12,25 téraflops de puissance. L’un des intérêts de ce système, c’est qu’il n’était pas très cher par rapport à la concurrence. Le superordinateur de NEC, le plus puissant de l’époque, avait nécessité un investissement de 400 millions de dollars pour 35,86 téraflops.
Avec le temps qui passe, surtout dans les nouvelles technologies, tout cela apparait comme bien peu de choses en 2017. En effet, vous pouvez construire chez vous votre propre superordinateur, lequel sera plus puissant (50 teraflops), prendra nettement moins de place et vous coûtera moins cher qu’un bon Mac Pro.
Spécialisé dans l’apprentissage profond, Carlos E. Perez a conçu une station de 50 téraflops pour à peine 3 000 $. Celle-ci est constituée des éléments suivants :
- 2 AMD Radeon Vega Frontier Edition 16GB GPU - $2,000
- 1 G.SKILL 32GB (2 x 16GB) DDR4 Memory- $200.99
- 1 Crucial 525GB SATA III 3-D SSD - $159.99
- 1 EVGA Plus 1000W Gold Power Supply - $119.99
- 1 MSI X370 AM4 AMD Motherboard - $129.99
- 1 AMD Ryzen 7 1700 8-Core 3.0 GHz (3.7 GHz Turbo) Processor - $ 314.99
- 1 Toshiba 5TB 7200 RPM SATA Hard Drive - $146.99
- 1 Rosewill ATX Mid Tower Case - $49
Au total, il en a pour 3 122 $, soit 62 $ le téraflops. Le tout fonctionne sous Ubuntu. Carlos E. Perez explique avoir également regardé du côté de Nvidia, mais certains types de calculs (FP16 / FP64) ne sont pas pris en charge sur les cartes grand public du constructeur. Résultat, il faut migrer vers des cartes professionnelles qui sont autrement plus onéreuses.
De son point de vue, si AMD a une carte à jouer avec son offre dans le domaine de l’apprentissage profond, il reste encore du chemin à faire sur le plan logiciel. De ce point de vue, AMD a encore beaucoup de chemin à parcourir, mais le potentiel est là.
À ce sujet, on rappellera que l’iPhone 8 devrait avoir une puce dédiée à l’intelligence artificielle.
Les mineurs de crypto-monnaie vont se lancer dans ce genre de truc. Après avoir tuer quelques cartes graphiques du marché gaming, ils vont tuer le marché professionnel
Oui enfin il y a moins cher encore, de nombreuses cartes PC ont pleins de slots, juqu'a 7 pour certains en 1x, le mien en a 4, 2 en 16x et 1 en 4x 1 en 8, de quoi mettre 4 cartes plus puissantes comme la 1080ti, plus puissante que la vega a ce jour.
quand aux mineurs ils ont ces solutions depuis longtemps, d'ou la penurie de processeur intel dual core d'entree de gamme.
pour miner, ce n'est plus des GPUs que l'on utilise mais des ASICs.
@ever1
Non non, l’asics c’est plutôt pour miner le bitcoin et les coins ayant le même algo (Pas du tout rentable d’ailleurs). Par contre, la plupart des altcoins dont l’ethereum, se minent avec des gpu.
les bit coins j'ai jamais compris comment c'était créé. Enfin j'ai jamais trop cherché non plus, mais je pense que ce serait un bon article à lire sur MacGé
https://www.youtube.com/watch?v=kgA2-bWXSN4
Commençons par comprendre l'argent
merci mais je parlais de création de bitcoin d'un point de vue technique.
@frankm
Bonne initiative, ce documentaire donne une vision globale simplifiée et caricaturale, mais est tres accessible.
Ceci dit, cela ne repond pas a la question de @Powerdown.
Une bonne partie de la reponse se trouve sur ... Wikipedia: https://fr.wikipedia.org/wiki/Bitcoin
@Jagger86 a lancé le sujet sur le "minage" de crypto-monnaie, sans expliquer ce dont il parle et qui pour la majorité n'a rien a voir avec le contenu de l'article... peut etre est ce parce qu'il ignore totalement ce dont il parle.
Pour revenir a l'article, fort intéressant, il y a plusieurs choses a preciser:
1) La puissance du PC presenté ici est difficilement comparable a celle du System X de VirginiaTech.
Le BigMac etait composé de 1 100 PowerMac, chacun embarquant 1 processeur PowerPC G5, derivé des IBM POWER4, composé de 2 core a 2Ghz, ce qui faisait au total 2 200 core.
On parle de processeur capables de faire tout type de calcul que ce soit sur les entiers ou les flottants, d'executer n'importe quel programme et qui embarquaient 2 unités altivec dediés au calcul vectoriel.
Le PC presenté ici n'est en fait comparable qu'aux unités vectorielles Altivec presente dans le G5, pas au reste du processeur G5. Et cela ne tient que sur les GPU AMD, pas sur le processeur, qui lui ne compte que 8 core et qui n'a d'autre utilité que de piloter les cartes pour du GPGPU.
2) L'architecture du PC limite les possibilités de traitement.
Le BigMac permettait une grande souplesse dans les types de traitements et on disposait de reelement 1100 processeurs complets independant.
Le PC presenté ici ne permet qu'un seul type de traitement, du GPGPU, soit du calcul vectoriel, et l'utilisation des unités de traitements est tres rigide, d'autant que comme l'indique l'auteur, AMD est tres loin de la maitrise logicielle en la matiere qu'a Nvidia.
3)
La machine presentée ici n'a rien a voir avec le monde Apple. MacOS ne peut pas tourner dessus.
Qu'est ce que tout cela veut dire?
Carlos E. Perez a realisé un PC qui repose uniquement sur du calcul vectoriel et bati sur un double GPU: c'est un ordinateur pour du GPGPU dedié a un domaine tres specifique et tres limité.
Cet ordinateur beneficie des enormes progrés qui ont ete fait en 15 ans dans le domaine du GPGPU, ce qui n'a rien a voir avec la stagnation que l'on constate dans le meme temps pour les processeurs generaliste.
Le choix du GPU AMD n'est certainement pas le meilleur comme le mentionne Perez, Nvidia aurait ete bien plus adapté, mais aussi bien plus cher.
Pourquoi Nvidia est plus cher? Pour une superiorité technique mais aussi pour des raison de marketing.
Les cartes dediées au GPGPU chez Nvidia sont les meilleures du marché et Nvidia sait que dans les domaines concernés il n'a pas de concurrence, donc avec une architecture tres proche des cartes de jeu (mais y a quand meme des vrais differences essentielles) Nvidia multiplie le tarif pour les usages GPGPU...
Pour conclure on peut dire qu'on a ici un PC pour faire du GPGPU qui est loin d'etre ce que l'on peut faire de plus puissant et fonctionnel. Son avantage, c'est son tarif.
@Powerdom
+1
Vivement cet article ! avec ou sans pomme dedans ?
@Powerdom
« Enfin j'ai jamais trop cherché non plus, mais je pense que ce serait un bon article à lire sur MacGé «
Tout à,fait, très bonne idée.
Ces histoires de mining, toussa, j’ai jamais rien compris.
Voilà de quoi utiliser Facebook et twitter avec confort…
Bon son conepteur est spécialisé en deep learning, on peut supposer que cette machine aura du "grain à moudre", et c'est ce qui compte. Mais difficile de comparer un cluster de macs de 2002 avec ça.
Le potentiel est là, mais Nvidia (les Titan X(p), ça n'est pas très grand public) est quand même très en avance et les neurochips arrivent bientôt...
Bizarrement, le "salut software" d'AMD dans le DL pourrait provenir d'Apple.