À quoi pourrait ressembler le Mac Pro Apple Silicon ?

Antoine Collin |

La transition vers des puces maison est en cours chez Apple, vous n'avez pas pu le rater. Mais vous avez peut-être remarqué une chose : le fabricant a pour le moment décidé de s'occuper des Mac portables et de ceux qui s'en approchent le plus, c'est-à-dire l'iMac de « petite » taille et le Mac mini. Et le Mac Pro alors, que va-t-il devenir ?

Il faut d'abord parler de la stratégie d'Apple dans ce segment, en regardant rapidement les trois générations de Mac Pro. La première fournée, entre 2006 et 20101, est résolument ancrée dans le passé, avec des recettes qui marchaient dans la décennie précédente. Il s’agissait d’une tour massive avec de bonnes capacités d'extension (stockage, cartes, mémoire, etc.) et deux processeurs. Dans une certaine mesure, on pourrait dire qu’Apple pensait en bon père de famille à l’époque, avec l'archétype de la station de travail. Car sur le fond, un Mac Pro de 2010 reprend les mêmes idées qu'un Power Mac G4 sorti dix ans plus tôt, dans un boîtier modernisé. Et ne nous leurrons pas : il y avait un marché pour ce type de Mac.

Le Mac Pro de 2010 et ses anachroniques baies pour lecteurs optiques.

La seconde génération peut être vue comme une étape éphémère, en dépit d'une durée de commercialisation interminable : vendu de 2013 à 2019, le Mac Pro cylindrique prend le contrepied total des machines précédentes. Il est compact, peu évolutif — Apple n'a jamais proposé de cartes graphiques en option, le stockage se faisait essentiellement en externe… —, mais assez efficace, au moins à son lancement.

avatar Derw | 

@YetOneOtherGit

Tout à fait, mais en même temps Apple en a vendu combien des Mac Pro ? 3 ? 😉

avatar YetOneOtherGit | 

@Derw

"mais en même temps Apple en a vendu combien des Mac Pro ?"

Cela ne change pas grand chose le volume sur la question de la partie relative des machines utilisées pour Logic Pro.

On manque d’informations chiffrés évidemment pour le Mac Pro, mais au regard de ce qu’on a sur le marché global des stations de travail ce risque fort d’être assez anecdotique.

La seule industrie relativement prospère sur laquelle Apple peut espérer vendre quelque volume de machines positionnées ainsi c’est la post-prod vidéo.

C’est bien évidemment une estimation à la louche personnelle mais ce serait surprenant que cet usage pèse moins des 2/3 des ventes 😉

avatar pocketalex | 

@YOOG

"Et sur la transition ARM il n’est pas impossible qu’Apple parvienne à élargir un peu la cible vers le CGI 3D. (Si les efforts avec Blender portent leurs fruits et que les machines sont à la hauteur de ce qu’on peut raisonnablement espérer, il n’est par exemple pas impossible que cela devienne une part de nos stations pour du CGI 3D)"

Ha mais carrément

Je bosse (sinon cotoie) avec beaucoup de monde de la "3D" : modélisation industrielle, rendus photoréaliste, vfx et effets spéciaux, design, films d'animation...

Tous me parlent avant tout du ratio performances/conso dans les choix des cartes graphiques, et si nVidia règne en maître c'est pas que grace à Cuda, mais aussi et surtout que pendant longtemps les CG AMD étaient à la rue niveau perfs/conso

Bref, si Apple arrive à sortir une solution ARM proposant de la patate GPU qui consomme bien moins que les grosses CG actuelles, même si les performances ne sont pas égalées c'est pas le souci, ça peut donner un produit TRES intéressant capable de se faire une belle place dans le secteur

La problématique est la même que pour les CPU, après tout, les dernier Alder Lake dament le pion aux M1Max de peu, donc si on se concentre uniquement sur les performances, on serait tenté par du Alder Lake, mais dans la réalité, un laptop M1Max propose un chouille de perfs en moins pour une autonomie incomparablement supérieure, un silence total à l'usage et pas de chauffe ...entre ça et un bousin de 3cm d'épaisseur qui fait le bruit d'un avion de chasse à l'usage et qui tient 45 minutes hors prise de courant, le choix est vite fait

Pour la 3D c'est pas si différent. On parle plus de desktop, alors on est tenté de se dire que la conso on s'en tape, mais quand on parle d'une bonne ferme de rendu ... on est LOIN de s'en taper, croyez moi

avatar YetOneOtherGit | 

@pocketalex

"On parle plus de desktop, alors on est tenté de se dire que la conso on s'en tape, mais quand on parle d'une bonne ferme de rendu ... on est LOIN de s'en taper"

Apple ne se positionne nullement sur ce type d’enjeu et la 3d de nos jours c’est très loin de n’être que le pré calculé.

Sur les taches de production une station de travail musclée et optimisée pour Blender pourrait séduire pas mal de monde.

avatar Nesus | 

Il est évident que la mémoire partagée ne fera pas partie du futur Mac Pro. Apple l’a fait pour des questions de coût et de performance énergétique. Élément qui n’auront aucun intérêt dans le futur Mac Pro.
Pour le reste, qui vivra verra.

avatar YetOneOtherGit | 

@Nesus

"Il est évident que la mémoire partagée ne fera pas partie du futur Mac Pro"

Toujours se méfier des évidences 😉

L’architecture mémoire n’est pas ici simplement une unification de la mémoire du GPU, c’est une approche architecturale bien plus large.

Les applications tirant réellement partie du parallélisme massive peuvent parfaitement s’adapter à plusieurs packages interconnectés par des bus haute performance.

Le goulot d’étranglement ne serait pas si impactant au regard des usages visés.

Très honnêtement je n’ai aucun préjugés sur les choix architecturaux qui seront fait, le champ des possibles est vaste et Apple à déjà montré son audace sur les trois variantes du M1.

Je m’attends à tout et surtout à des approches surprenantes.

Wait & See 👀👅

avatar Nesus | 

@YetOneOtherGit

La grande magie du M1 c’est la taille des bus et de la mémoire attribuée. Pour réduire le coût, elle est partagée. Pour une machine qui vise un segment de gens qui passent les machines en amortissement, cela n’a pas de logique. Après on peut aussi imaginer une mémoire partagée et encore plus gonflée, je ne vois pas l’avantage par contre et je vois la contrainte d’avoir un cpu et gpu « collés ».
Ce n’est pas parce que je ne vois pas que j’ai pour autant raison. Apple sait faire mentir les gens (exemple : soc cpu/gpu = trop de chaleur et faible performance)

avatar YetOneOtherGit | 

@Nesus

"Pour une machine qui vise un segment de gens qui passent les machines en amortissement, cela n’a pas de logique"

Très discutable, dans des structures conséquentes la machine finie souvent son cycle d’exploitation dans son exact configuration d’achat 😉

Attention au généralisations à partir de son cas personnel.

avatar YetOneOtherGit | 

@Nesus

"Pour réduire le coût, elle est partagée"

Ce n’est nullement un enjeu de réduction de coûts mais de performance architecturale.

avatar YetOneOtherGit | 

@Nesus

"Après on peut aussi imaginer une mémoire partagée et encore plus gonflée, je ne vois pas l’avantage par contre et je vois la contrainte d’avoir un cpu et gpu « collés ». "

Ce qui semble faire peu de doute c’est l’approche package.

Après on peut fantasmer une approche carte fond de panier sur bus très haute performance et des cartes comprenant le package que l’on peut remplacer et/ou ajouter en fonction des usages pour assurer la scalabilité de la machine 😉

Nous verrons bien 😜😋😉

avatar BitNic | 

Merci de cet excellent article

avatar Mac1978 | 

Merci pour cet excellent article qui pose autant de question qu’il n’apporte de réponse.

Cela ne m’étonnerait pas qu’Apple, même pour une machine de bureau et Pro, garde un œil sur le rapport performance/consommation. En d’autres termes, je miserai sur un rapport téraflops par watt qui enfonce la concurrence, plus que sur du téraflops pur.

En plus, il faut que l’offre logicielle optimisée suive car plus d’un an après les premiers M1, et près de deux ans après la mise à disposition par Apple des Mac Mini à puce A14 aux développeurs, je trouve assez décevante l’évolution des logiciels optimisés.

avatar YetOneOtherGit | 

@Mac1978

"je trouve assez décevante l’évolution des logiciels optimisés."

C-à-d ? 🤔

Que te manque-t-il ?

Hormis chez Adobe, je ne vois pas, et les produits Adobe ne sont optimisés sur aucune architecture donc rien se spécifique au M1.

avatar Mac1978 | 

@YetOneOtherGit

Adobe n’est pas un petit acteur logiciel et je trouve effectivement décevant que presque tous leurs produits ne soient pas optimisés alors que j’en utilisait bcp.

Dropbox également, malheureusement pour moi encore indispensable, Scrivener ne se synchronisant pas via iCloud entre Mac et iPad.

avatar YetOneOtherGit | 

@Mac1978

"Adobe n’est pas un petit acteur logiciel et je trouve effectivement décevant que presque tous leurs produits ne soient pas optimisés alors que j’en utilisait bcp."

C’est la même chose sur Wintel et ce n’est pas près de changer.

Bien de leurs soft ne tirent pas partie du parallélisme offert par le multicoeur.

avatar YetOneOtherGit | 

@Mac1978

"Dropbox également, malheureusement pour moi encore indispensable, Scrivener ne se synchronisant pas via iCloud entre Mac et iPad."

Là ce n’est pas spécifiquement lié à la transition ARM ni a ses enjeux d’exploitation du potentiel de performance de ces architectures.

Juste du boulot mal fait.

On oublie souvent à. quel point le développement est aujourd’hui fortement decorélé de l’architecture matérielle sous jacente.

Les pb que tu évoques sont des pb de dev et de politique de dev qui n’ont pas grand chose à voir avec la transition ARM

avatar Mac1978 | 

@YetOneOtherGit

« …des problèmes de politique de dev… » sont pour moi la démonstration du peu d’envie d’un développeur, petit ou grand, d’adapter sa production aux évolutions matérielles et/ou systèmes.

Cette absence se de volonté de porter ses logiciels de la part d’Adobe peut réellement freiner le déploiement de solutions M1. Je connais beaucoup de vidéastes professionnels qui sont sur Première et ne veulent pas changer leurs habitudes. Idem pour des graphistes sur Indesign ou des photographes sur Photoshop, pourtant tous sur Mac depuis des lustres.

avatar YetOneOtherGit | 

@Mac1978

"sont pour moi la démonstration du peu d’envie d’un développeur, petit ou grand, d’adapter sa production aux évolutions matérielles et/ou systèmes."

C’est comme toujours un enjeu principalement économique : un bon vieux rapport coût / bénéfice.

C’est entre autre ce que fait la montée en puissance des solutions tel Électron.

Et sur des logiciels ayant une longue histoire et une base de code ancienne et massive tel ceux de la suite Adobe il est économiquement impossible de faire autre chose que des cautères sur une jambe de bois.

avatar YetOneOtherGit | 

@Mac1978

"Je connais beaucoup de"

Ce qui ne veut comme toujours pas dire grand chose 😋

La progression de la profitabilité de l’offre d’Abode ne souffre pas des problèmes de qualité de développement depuis des décennies et n’en souffrira pas demain.

Les solutions vidéo d’Adobe sous exploitent les machines toutes architectures confondues 😉

avatar Derw | 

@Mac1978

« Cette absence se de volonté de porter ses logiciels de la part d’Adobe peut réellement freiner le déploiement de solutions M1. »

Bof. Adobe a toujours été une grosse bouse sur l’adaptation de son code aux architectures. C’était déjà vrai quand quasiment tous les graphistes étaient sur Mac (passage de PowerPC à Intel), c’est encore plus vrai aujourd’hui avec une base d’utilisateurs qui est devenue très disparate. Du coup, entre ça et l’abonnement, je connais quelques graphistes ou vidéastes qui ont changé de crêmerie (Affinity, FCPX, Procreate, sketch…) et d’autres non… certains ont regretté leur choix (dans les 2 sens) et ont fait machine arrière, et d’autres non… Quoi qu’il en soit, pour ce que j’en ai entendu dire, pour Photoshop et Illustrator, sur du M1 avec Rosetta ou sur du Intel, la différence ne serait pas notable (notez d’ailleurs le conditionnel…). Par contre, pour Première, effectivement cela se passerait un peu moins bien. Mais le seul studio vidéo que je connais encore sur Première se tâte à passer sur FCPX (en mm tps, cela fait des années qu’ils se tâtent… ils se tâtent juste plus fort…).

avatar Lucas | 

Merci pour cet article passionant 🙏 et hâte de voir ce qu’il en sera vraiment !

avatar mne | 

A mon sens qui vaut ce qu’il vaut (rien) une machine à l’ancienne ne ferait pas sens aujourd’hui dans la gamme mac actuelle.
Une stratégie basée sur de plus petites machines capable de partager leur puissance de calcul individuelle serait une stratégie de rupture qui rendrait la gamme mac à la fois plus cohérente et plus intéressante pour se poser en alternative au modèle de la station de travail classique :
Un employé peut se faire offrir un MacBook Pro qu’il peut utiliser indifféremment chez lui, en déplacement et au bureau, et le brancher lorsqu’il est au bureau à un stack de Mac mini pro qui peut se partager facilement en fonction des besoins au sein de l’entreprise, avec une puissance de calcul totale plus ou moins égale à la somme de la puissance individuelle des machines (moins un certain nombre de perte de charge dû au chaînage des machines).

#nostradamac

avatar iftwst | 

Puisque je n’y connais rien je vais donner mon avis.
🤪
Apple va sortir une bête de course qui va me faire baver même si je n’en aurai absolument pas du tout besoin compte tenir de mon utilisation !

avatar zoubi2 | 

@iftwst

🤣 🤣 👍 👏

avatar YetOneOtherGit | 

@iftwst

"qui va me faire baver"

C’est la raison d’être principale de ce type de très haut de gamme 😉

avatar the_optimist | 

Je serais très agréablement surpris par une machine évolutive mais ce ne sera certainement pas le cas. Ça va juste être un max x 2 ou 4, ça en prend le chemin. Si au moins ils clockaient cela a 5ghz mais même pas. Pour moi Apple considère qu’ils ont assez bossé avec le M1 et que la perf a juste besoin de multicoeurs. C’est bien dommage ils ont perdu le lead sur le monocoeur et c ce qui compte le plus pour la plupart des gens

avatar YetOneOtherGit | 

@the_optimist

"lead sur le monocoeur et c ce qui compte le plus pour la plupart des gens"

Effectivement sur des stations de travail type Mac Pro c’est effectivement « ce qui compte le plus » 🤪🙄🤯

On est au contraire sur des évolutions allant vers le parallélisme massif où justement le multi-coeur et prégnant, les usages classiques de se type de machines s’appuyant justement sur des algorithmes qui savent vraiment tirer parti de la parallélisation que ce soit en CPU ou en GPGPU.

avatar the_optimist | 

Tout ce que j’espère c’est qu’il partent d’une base M2 et non plus M1

avatar YetOneOtherGit | 

@the_optimist

"Tout ce que j’espère c’est qu’il partent d’une base M2 et non plus M1"

Cela changerait quoi de fondamental ?

avatar Derw | 

@YetOneOtherGit

C’est psychologique…

avatar YetOneOtherGit | 

@Derw

"C’est psychologique…"

-L'élément appelé zéro et noté 0 est un entier naturel.
-Tout entier naturel n a un unique successeur, noté s(n) ou Sn qui est un entier naturel.
-Aucun entier naturel n'a 0 pour successeur.
-Deux entiers naturels ayant le même successeur sont égaux.
-Si un ensemble d'entiers naturels contient 0 et contient le successeur de chacun de ses éléments, alors cet ensemble est N.

Giuseppe Peano 🥳

avatar XiliX | 

Perso j’attends un Mac mini Pro/Max

avatar cecile_aelita | 

@XiliX

Moi j’attends un : Mac-Mini-Pro-Max-super-XDR-Plus-liquid-Retina 😋😋! Ça c’est du nom stylé pour un ordinateur 😋❤️
(Humour évidement 😋🥰 je suis taquine je sais ☺️).

avatar yasuo87 | 

@cecile_aelita

Alors que tu pourrais avoir un Hyper Mac Pro Max avec écran géant micro LED XDR Pro Max de-la-mort-qui-tue 😔

avatar cecile_aelita | 

@yasuo87

😋😉

avatar yasuo87 | 

@cecile_aelita

Héhé 😋

avatar JLG47 | 

Apple commence à produire des machines surpuissantes à très faible consommation, et certains proposent d’y adjoindre des annexes nécessitant autant de refroidissement qu’un réacteur nucléaire.
Mis qui donc doit encore faire des efforts ?
Il est probable qu’Apple poursuivre et propose des extensions aussi vertueuses que ces propres processeurs.

avatar Steve Molle | 

Il pourrait avoir la forme d’un gros chèque ?

Pages

CONNEXION UTILISATEUR