Fermer le menu   
header

Les nouveaux Mac Pro pensés pour OpenCL

par Christophe Laporte le 24 juin 2013 à 10:40

Les scores CPU des nouveaux Mac Pro avec Geekbench n’ont rien de transcendant (lire : Premiers benchs en demi-teinte pour le nouveau Mac Pro), mais restreindre le potentiel de la nouvelle machine d’Apple à ce point est réducteur.

Si Apple a complètement repensé le design de sa station de travail, les développeurs vont également devoir repenser la façon dont ils optimisent leurs apps. C’est en tout cas ce qu'estime le développeur Guy English, qui a notamment collaboré avec Tapulous et Rogue Amoeba.

La véritable nouveauté de ces Mac Pro pour lui, c’est la présence de deux GPU. Il voit d’ailleurs les choses de manière assez simple : un GPU pour l’affichage et un second pour le calcul. Dans la pratique, les choses devraient fonctionner différemment, mais cela montre bien la direction prônée par Apple.

Grâce aux deux puces AMD qui sont indépendantes et qui peuvent avoir chacune jusqu’à 6 Go de VRAM, la station d’Apple dispose d’une puissance de calcul pouvant monter jusqu’à 7 téraflops, contre 2,7 téraflops pour les modèles actuels.

Pour Apple, c’est en quelque sorte un retour aux sources. Par le passé, ses machines ont souvent embarqué une puce dédiée pour accélérer le traitement des tâches. Les plus anciens se souviendront qu’à l’époque des 68x00, certains Mac étaient équipés d’un coprocesseur arithmétique ou d’un DSP. C’était le cas du Quadra 840AV. Les stations de travail NeXT étaient encore plus dans cette philosophie et possédaient une architecture extrêmement décentralisée.

Comme toujours avec Apple, le logiciel et le matériel marchent main dans la main. Dans Mavericks, la firme de Cupertino a revu en profondeur OpenGL afin de combler son retard et a inclus les dernières spécifications d’OpenCL (lire : OS X Mavericks : TRIM, Carbon, QuickTime et autres petits changements). OpenCL permet rappelons-le de tirer profit de l'intégralité des capacités de calcul contenues dans un ordinateur (son processeur principal, une puce spécialisée de type DSP ou le processeur de sa carte graphique).

Apple mise énormément sur cette technologie qui a fait son apparition avec Snow Leopard (lire : OpenCL accéléré pour Snow Leopard) et dont elle se sert énormément dans certaines applications. Et si la marque à la pomme a choisi AMD pour le Mac Pro, c’est justement à cause d’OpenCL. Son concurrent, Nvidia, qui mise beaucoup sur CUDA, voit d’un très mauvais oeil l’émergence de la technologie développée par Apple (lire : Nvidia ferait tout pour se débarrasser d'OpenCL).

Sur le même sujet :
- OpenCL amadoue les trous noirs supermassifs

Catégorie : 
Tags : 

Commentaire(s)

avatar amanray 28/09/2013 - 23:04

Tout le graphisme 3d se calcule en CUDA dans ma boite et pareil pour nos concurrents , on ne va pas changer de softs et racheter des licences pour l' Open Cl, trop récent et pas du tout répandu. Même bourde que le thunderbolt toujours utilisé de manière très confidentielle

avatar Cowboy Funcky 24/06/2013 - 21:34

Va t'on l'interdire a l'export, comme son ancêtre ?
Surtout du fait de sa forme de mortier...

avatar SpleenXXX 24/06/2013 - 21:12

Je me demande si le rédacteur sait un minimum de quoi il parle, où si c'est un jeune loup un peu fou toujours accroché à ces macs et qui veut impressionner son monde.

"Les plus anciens se souviendront qu’à l’époque des 68x00, certains Mac étaient équipés d’un coprocesseur arithmétique ou d’un DSP. "
Ils existent encore, un FPU est coprocesseur arithmétique et sert aux calculs de nombres flottants. Seulement, ils sont intégré directement aux CPU.

"Nvidia, qui mise beaucoup sur CUDA, voit d’un très mauvais oeil l’émergence de la technologie développée par Apple "
J'adore la façon dont c'est tourné. Comme s'ils courraient un risque alors qu'ils en ont rien eu à fiche depuis le début. Ayant développé sur les deux, Cuda a vraiment de beaux jours devant lui. D'autant plus qu'il est appris en fac et bien adopté.
"7 téraflops, contre 2,7 téraflops pour les modèles actuels."
De quand date les Mac Pro de la dernière génération déjà ? Rien d'étonnant.

avatar Ducletho 24/06/2013 - 20:37

@zorg2000

Ok j'avais mal lu, je croyais que c'était un cross fire pro, mais ok fire pro, donc uniquement utilisation dsp

avatar Stardustxxx 24/06/2013 - 20:35

@joneskind
Absolument, je te refere au nom :
Open Computing Library
Open Graphic Libray

;)

avatar guillaume_c 24/06/2013 - 19:46

Juste une remarque: OpenCL n'est pas utile à tous les calculs parallèles. Par exemple, si vous appelez une bibliothèque externe (pour avoir des générateurs de nombres aléatoires), OpenCL ne convient pas. Il faut alors utiliser Grand Central Dispatch pour paralléliser, et les cartes graphiques restent alors inutilisées. D'où l'intérêt pour moi d'un bi-proc. Dîtes moi si j'ai loupé un truc...

avatar Stardustxxx 24/06/2013 - 17:01

@joneskind
Tu ne comprends pas pourquoi nVidia va vendre des licenses Kepler.
La raison est tres simple, quel est le plus gros vendeur de carte graphique sur PC ?
Qui va vendre de plus en plus de carte graphique ?
La reponse aux 2 questions est Intel. La raison, les cartes graphiques integrees aux processeur Intel, ex Macbook Pro Retine 13.3"...
nVidia n'a pas de license x86, et ne peux donc pas concurrencer Intel.
A terme nVidia se retrouve coince, et va se retrouver ejecter du marche des cartes graphiques PC a part pour le haut de gamme.
Les seuls marches sur lequel nVidia a de la croissance, c'est le HPC (calcul scientifique) et le mobile.
Sur le mobile, le Tegra n'est pas un echec ni un succes. Mais si nVidia veut avoir du succes sur mobile, ils doivent devenir comme les autres autres (PowerVR, etc...), et donc licensier.
A terme le HPC pourrait deriver sur l'intelligence artificielle.

Et OpenGL n'est pas une solution logicielle plutôt dédiée au jeu vidéo!!!!
OpenGL (Open Graphics Library) est une API multi-plateforme pour l'affichage d'images 2D ou 3D. Elle a ete creer pour etre utilisée pour des applications qui vont a l'origine de la CAO en passant par la modélisation et la recherche, et dans une moindre mesure le jeux video.

avatar joneskind 24/06/2013 - 17:39

@Stardustxxx :

Merci pour tes précisions. J'avais bien besoin de clarifications sur le sujet ^_^. Mais t'es d'accord avec moi schématiquement non ? que OpenCL concerne le calcul brut et OpenGL un calcul plus orienté (calcul graphique donc). C'est comme ça que je l'ai toujours vu. Sans doute mon analyse est elle un peu superficielle.

avatar ovea 24/06/2013 - 15:12

Open Graphic Library tire vers le haut le calcul spécifique adapté à l'image animée.
Il est épaulé de Graphic Processor Unit.
Mais, on atteint la limite entre se type de calcules et des calcules "classiques" lorsque qu'on veut par exemple construire une géométrie adaptative en temps réel pour un modèle d'objet.
C'est là où interviendrait Open Computing Library pour recalculer en temps réel dans l'espace d'affichage tous les objets qui s'y trouvent avec une géométrie qui correspondrait au niveau de détails seulement nécessaire.
Ce type de re-calcul exige en général à se retaper une base local avec ses variations de changement d'inclinaison de surface (la normale à la surface) et dessiner une autre géométrie sur les courbes de niveaux.
Mais ce n'est plus qu'un détail car on est plus juste limité à l'espace de l'image animée.
Le nombre dimensions correspond alors aux variations à étudier afin de les "re-calibrer" pour l'espace dans lequel on veut les appréhender.
Plus besoin de passer par la question : est-ce que c'est optimisé ?

avatar joneskind 24/06/2013 - 15:50

@ovea :

Merci !

avatar joneskind 24/06/2013 - 15:03

@la bosse des Mac :
OpenCL et CUDA sont des solutions logicielles dédiées au calcul brut "scientifique" pour faire simple, qu'on va pouvoir utiliser pour le calcul d'image (3D, filtre) mais aussi pour des simulations (économiques, météorologiques) etc.
OpenGL c'est une solution logicielle plutôt dédiée au jeu vidéo
Le teraflop c'est une unité qui indique le nombre d'opérations effectuées par seconde. C'est une unité qui indique illustre la puissance de calcul de manière plus explicite que le GHz associé au processeur.

avatar zorg2000 24/06/2013 - 15:02

Arf 300 w seulent, bon je n'avais pas fait gaffe j'aivais un dell T7400, deux xéon, deux bus PCI16x et 1000w de base en alim..... 300w, je ne suis pas sur qu'il existe beaucoup des PC desktop avec de nos jours......

perso je vois le mac pro comme l'était les station Silicon Graphices, des machines dédiées à une tache, un calculateur dont les clients sont des petites machines....

Quand a CUDA, il me sert au quotidient, par exemple pour convertir plus rapidedement (beaucoup plus) les videos divx sur mon ipad, une GTX660 va au moins deux fois plus vite qu'un I7/2600k/3.4 ghz sur mon PC, je n'utilise pas mon mac il a une vieille ATI.

Ha, j'oubliais un truc, le mac mini 2010 a un chipset Nvidia et une Ge320 qui est pas mal pour jouer, vieille mais elle tourne encore bien. Approximativement la puissance de la HD4000 mais plus fluide.

avatar joneskind 24/06/2013 - 14:52

@C1rc3@0rc :

Oui. Je sais bien que pour le moment CUDA a une avance certaine sur OpenCL et il n'y a guère que FCPX qui en tire réellement parti. Mais il parait qu'il faut s'attendre à de grosses nouveautés logicielles et sans doute hardware aussi (j'imagine bien Apple et AMD travailler main dans la main - d'ailleurs il me semble bien que les deux boites ont joué aux vases communicants il n'y a pas si longtemps).
Par ailleurs, j'ai du mal à analyser le fait que NVidia passe son architecture Kepler sous licence. Kepler c'est vraiment pour les pros de l'image, un marché plutôt en expansion. On dirait que Nvidia a peur de perdre des parts de marché, alors que Kepler et CUDA sont aujourd'hui plutôt incontournables.
De plus, Apple n'a pas l'habitude de chercher à cannibaliser un marché avec des solutions qu'elle sait/croit moins bonnes. Et le marché pro ne pèse pour rien dans son CA.
Donc pourquoi mener une bataille qu'elle est certaine de perdre ?
Le Mac Pro a été créé à une époque où l'informatique se résumait à Apple et Microsoft. C'était le cheval de bataille de Steve Jobs pour mener sa guerre. Aujourd'hui ça n'a plus lieu d'être et on peut se demander l'intérêt d'Apple dans cette affaire.
Si le Mac Pro est décevant ça ne peut QUE être mauvais pour l'image d'Apple.
Le marché Pro c'est un peu plus que du marketting. Il faut des résultats. D'où ma question !

avatar Bast6 24/06/2013 - 14:38

[b]@bunios :[/B]

Hormis OS X et ses composants, comme soft tirant partie de OpenCL on peut citer :
- Final Cut Pro X, Motion 5 et Compressor 4 ;
- Les nouvelles versions de la suite d'Adobe en CC (pour Creative Cloud), en tout cas pour Premiere et Photoshop (quid d'After Effects ?) ;
- Visiblement les nouvelles versions de Nuke, Mari et d'autres softs de The Foundry ;
- Visiblement Autodesk Smoke 2013 est compatible (en tout cas avec les cartes AMD) ;
- Avid Media Composer est compatible avec les GPU AMD et est même certifié pour certains d'entre eux (ceux qui équipaient la précédente génération d'iMacs si je ne m'abuse) donc ça ne devrait pas poser de problème (encore que je crois que Avid ne tire pas spécialement partie de Cuda non plus je ne sais pas) ;

Et ce ne sont que les softs que je connais il y en a sûrement plein d'autres ! Des soft audio par exemple (ben y a une interface graphique donc faut bien que le GPU soit mis à contribution puis visiblement Open CL se sert de tous les composants pour tous les types de calculs donc je pense que ça rentre en ligne de compte^^) ou des soft de PAO aussi j'imagine.

J'espère t'avoir apporté un début de réponse ;)

[b]zorg2000 :[/b]
SAUF que le "vieux" Mac Pro limite la puissance à 300 watts pour tous les ports PCI-E additionnés et qu'une seule Titan pompe (si je ne m'abuse) 250 Watts ! (comme la GTX 780 que j'ai mis dans le Mac Pro du boulot en fait)

avatar ashurao 24/06/2013 - 14:38

@Zorg2000:

même si je regrette l'absence de carte Nvidia (pour l'instant, car nous auront peut-être le choix lors de la mise en vente du mac pro), je ne suis pas convaincu par ta remarque.
Le mac pro actuel ne peut même pas alimenter 1 Titan, alors 3. Et même en utilisant une alim externe, la 3ème Titan serait bridée, puisqu'il y a que 2 ports PCI-Express x16 dans le mac pro.

avatar zorg2000 24/06/2013 - 14:37

@damiendu83600

1> Pour jouer il n'y a guère que l'Imac en 22" ou 27". oublie le mini et sa carte pitoyable en jeu,

2> sinon offre toi un vieux macpro et une grosse carte 3D la tu auras et un bon mac et un bon PC via bootcamp et un excellent support 3D (et pleins de jeux).

3> Sinon achète un mac mini, ou un vieux mac et offre toi une Xbox ou une PS3. c'est encore le plus performant. question bureautique basique mon MBPro de 2006 marche très bien et n'est pas à la traîne.

avatar JoKer 24/06/2013 - 14:37

@ Yeux

C'est les prix du haut de gamme des anciens Mac Pro.

avatar zorg2000 24/06/2013 - 14:31

On n'a pas de SLI ici, la 1ere carte est pour l'affichage et la 2eme est pour le calcul, un gros copro mathématique quoi....( CF les autres articles de Macgé)
les TF, c'est ta puissance de calcul, ce que tu paie. l'ancien avait 2.7 TF, le nouveau 7, pour une equipe 3D cela veut dire que le travaille de 5 jours en prends 2 (à peu près), un gros gain de temps et d'argent, de quoi réduire la durée de travail d'Avatar 2 de quelques semaines et donc de quelques millions de dollars qui justifie le prix de la machine.

Pour faire du surf ou du word cela ne sert bien sur à rien.

avatar la bosse des Mac 24/06/2013 - 14:02

Open CL ou Open GL ? Je n'ai aucune idée de ce que cela peut être mais vous parlez tantôt de l'un tantôt de l'autre.
Après, les teraflops, je ne sais pas bien ce que c'est non plus mais je présage que plus il y en a mieux c'est ? Pour faire quoi ? Mystère.

avatar Yeux 24/06/2013 - 14:27

J'attends la gamme de prix pour voir, mais les cartes avec GPU AMD FirePro avec 6 Giga sont actuellement facturés plus de 3 000 euros pièce... soit déjà plus de 6000 euros de carte graphique.
Pour le CPU le Xeon haut de gamme il est à 2 000 euros.
Quel prix pour le Mac Pro haut de gamme ? 10 000 euros ? 15 000 euros ?
Si c'est pour avoir une gamme de prix délirante à la NeXT, l'échec n'est pas loin...

avatar Ducletho 24/06/2013 - 13:40

Voici mon retour de mon expérience sur du sli : on paie le prix fort et on est loin d'obtenir le bon rendement : 2 cartes graphiques ne donnent pas 2 fois la puissance graphique attendue...
Au bout de deux ans, ce système est dépassé par un seul nouveau gpu...et moins energetivore...
Il est déjà difficile d 'avoir un driver optimisé en temps normal, alors pour un système plus complexe, on imagine...sur mes 2x8800 gts, nvidia a pourtant fait des mises à jour multiple.
Si dans la première année (et encore), le fabricant n'a pas réussi à sortir un bon driver, vous ne l'aurez jamais... Il se concentre trop vite sur les générations suivantes.
À voir sur les Mac Pro ...

avatar bunam 24/06/2013 - 13:38

Je pense que la taille de la carte de ce Mac Pro pourrait ce retrouver dans une lame…
Bientôt des nouveaux Xserve en lame (2014) ?

et je pense que les benchs actuels ne sont pas bon car il ne doivent pas encore passer par les cartes graphiques

avatar zorg2000 24/06/2013 - 13:18

Quand au 7 TF de la bete une carte nvidia Titan a 4.5 TF, un "vieux" macpro tour peut en avoir 3 dont culmine a 13.5 TF.

Quand à la structure décentralisée, le mac était tout CPU au début, contrairement à l'Amiga qui sous traitait déja avec ses puces autonomes et plus tard l'Atari falcon et son DSP. le next n'a fait que reprendre ses initiatives.

Perso je me demande s'il n'ont pas choisi AMD car la boite est en difficulté et brade ses prix. Quand a Cuda, il y a pleins de bonnes applis qui marche très bien, même non pro (comme real player).

avatar JoKer 24/06/2013 - 13:16

Imposé de fait ?
Pourtant on a des annonces de The Foundry, de Blackmagic, d'Adobe...
Et ça que depuis deux semaines...!

avatar [MGZ] Shralldam 24/06/2013 - 13:14

Comme quoi, même si c'est dommage, les technologies propriétaires progressent souvent beaucoup plus vite que celles qui sont ouvertes...

Pages

Connexion utilisateur