M1 Ultra : une puce deux-en-un

Anthony Nelzin-Santos |

Lorsqu’elles sont unies par les liens d’un interconnecteur UltraFusion, deux puces M1 Max « fonctionnent comme une seule puce », la fameuse M1 Ultra. Il n’empêche qu’il reste possible de distinguer les deux hémisphères du cerveau du Mac Studio.

La puce M1 Ultra. Image Apple/MacGeneration.

La puce M1 Max possède deux clusters de quatre cœurs Firestorm, des P-clusters chargés des calculs complexes, et un cluster de deux cœurs Icestorm, un E-cluster plus économe. Une puce véritablement unifiée possèderait deux P-clusters de huit cœurs et un E-cluster de quatre cœurs, mais la puce M1 Ultra possède deux paires de P-clusters de quatre cœurs et une paire d’E-cluster de deux cœurs.

Que les choses soient bien claires, cela ne fera aucune espèce de différence pour le développeur moyen, le problème de la répartition des tâches étant largement abstrait par Dispatch. Johny Srouji, vice-président d’Apple en charge des technologies matérielles, précisait d’ailleurs que le système M1 Ultra apparaissait comme une seule puce « du point de vue du logiciel ».

Les cœurs Icestorm peuvent fonctionner à 600, 972, 1 332, 1 704, ou 2 064 MHz. Les cœurs Firestorm peuvent atteindre 3 228 MHz avec des paliers à 600, 828, 1 056, 1 296, 1 524, 1 752, 1 980, 2 208, 2 448, 2 676, 2904, 3 036, 3 132, et 3 168 MHz. Chaque P-cluster peut gérer la fréquence de ses cœurs indépendamment de l’autre, la fréquence maximale baissant avec le nombre de cœurs actifs.

Contrairement au MacBook Pro 16" à puce M1 Max, le Mac Studio ne possède pas de réglage du « mode performance »… parce qu’il est activé en permanence. Dans nos premiers tests, le Mac Studio doté d’une puce M1 Ultra à vingt cœurs est presque exactement deux fois plus rapide que le modèle équipé d’une puce M1 Max à dix cœurs. UltraFusion n’est pas juste une illusion.


avatar SimoniPhone | 

Oui, ce n’est pas comme le pont SLI des cartes graphiques NVIDIA 🙄😂

avatar raoolito | 

@SimoniPhone

accordons à nvidia que faire fonctionner des gpu en les branchant par calbe n'est pas aussi efficient qu'un ultraFusion :D

avatar tupui | 

@SimoniPhone

Faudrait plus comparer avec du NVLink 😉

avatar Dark Phantom | 

Et donc une Mx Ultra Duo pour le Mac Pro en septembre…

avatar frankm | 

@Dark Phantom

M2 Extreme

avatar raoolito | 

@frankm

et pourquoi pas M1 Galaxy ?
HEIN? POURQUOI PAS ???

avatar Hasgarn | 

@raoolito

NANNNNNN!

Ce sera le X-treme Galaxy Ultra Performance Pro Pro Aye Aye Aye Olé !

…..

Comment ça, too much 🥸

avatar raoolito | 

@Hasgarn

c'est je trouve ce nom parfait! équilibré et pas trop tape à l'oeil! bravo !

avatar Marcos Ickx | 

« Une puce véritablement unifiée possèderait deux P-clusters de huit cœurs et un E-cluster de quatre cœurs, mais la puce M1 Ultra possède deux paires de P-clusters de quatre cœurs et une paire d’E-cluster de deux cœurs. »

Je trouve cela très bizarre de dire cela.
Car à vous écouter alors, la puce M1 Max, elle même basée sur une puce M1 Pro, elle même basée sur une puce M1 ne devrait aussi. Pour être véritablement unifiée n’avoir qu’un cluster de 8 cœurs et non deux clusters de 4 cœurs.

Or personne n’a dit que la puce M1 Max/Pro n’était pas véritablement unifiée lorsqu’Apple l’a annoncé fin 2021.

Bref, ça ne me choque pas du tout que l’on voit 4 clusters de 4 cœurs pour la M1 Ultra. Tout comme cela ne me choque pas que l’on voit 2 clusters de 4 cœurs pour la M1 Max/Pro.

avatar ssssteffff | 

Petite question qui peut paraître stupide, mais toute cette maitrise du SoC et la modularité proposée par ces puces Apple Sillicon ne permettraient-elles pas l’arrivée du fameux Mac modulaire espéré depuis tant d’années ? J’entends par là, serait-ce illusoire d’imaginer une sorte d’UltraFusion via TB4. Je ne connais pas l’architecture derrière les lignes TB, mais n’ont-elles pas accès au bus mémoire central ? Et si oui, Apple ne nous réserverait-elle pas à l’avenir la possibilité de brancher deux Mac Studio ensemble pour « distribuer le calcul » ? (De la même manière qu’ils « branchent » deux M1 Max pour faire un M1 Ultra).

Ça peut paraître loufoque comme idée, mais la conception de ces puces me font imaginer que cela deviendrait possible (et que nous sommes désormais très éloignés des Pentium D de l’époque, qui étaient deux P4 gravés sur un bloc et dont l’efficacité était plus discutable).

avatar mne | 

@ssssteffff

On va simplifier le problème à un seul aspect : la vitesse de bus
TB : 40Go/s (on parle de 80 pour la prochaine génération mais rien de sur)
m1 ultra : 2.5 To/s

Autrement dit, pour faire la même chose en externe il faudrait 62 ports TB pour connecter les 2 ordinateurs

:)

avatar ssssteffff | 

@mne

C’est pour ça que j’ai parlé de « distribuer le calcul ». Évidemment, je ne disais pas en pensant « ça va se comporter comme un seul CPU unifié totalement transparent ».
Mais pour certains calculs intensifs, nous faisons bien du calcul distribué via le réseau donc bon…ici par exemple, une tâche demandant deux fois plus de cœurs pourrait aisément être distribuée (de manière matérielle, et non logicielle) sur les deux Mac et centraliser le résultat.

avatar Almux | 

Il y a un peu plus de dix de cela, j'avais osé suggérer (sur un autre forum dédié au Mac) qu'Apple sortirait ses propres puces et qu'il serait "bientôt" possible d'empiler des Mac (reliés par les "pieds" - en dessous - à des orifices sur le dessus) pour en faire des (hyper) clusters.
Bien sûr, je m'étais fait incendié par ce que c'était "impossible" (vrai à l'époque où l'arrivée du Mac Cube n'était encore qu'une rumeur - trop de latence, etc.). J'avais même fait une petite animation 3D qui m'avait valu un message des avocats d'Apple me donnant l'ordre de la retirer immédiatement! 😅

avatar Alex Giannelli | 

@Almux

Il y a sûrement une leçon à en tirer…
Le fait que les visionnaires sont souvent décriés par les ignorants ? Nooon pas de ça sur les forums, jamais 😬

avatar tupui | 

@ssssteffff

On pourrait très bien imaginer une autre connectique style infiniband. Le problème reste toujours d’avoir des logiciels pouvant tirer partit du multicoeur. Après pour les centre de calculs qui serraient les cibles, c’est bien plus chère qu’un noeud normal et le format est pas en rack.

avatar marc_os | 

@ tupui

> Le problème reste toujours d’avoir des logiciels pouvant tirer partit du multicoeur

Dispatch, héritier de libdispatch est la réponse.
Ça permet au développeur de se concentrer sur ses tâches, ou plutôt sur les tâches qu'il veut programmer et faire exécuter en parallèle. C'est "magique". Avant c'est sûr on pouvait gérer les threads "à la main", mais libdispatch a rendu ça hyper facile, et cette librairie se débrouille pour répartir les tâches sur le hardware sous-jacent de manière optimale.
J'ai des collègues très frileux qui "séquentialisent" leur code un max, et je pensent qu'ils se trompent. Mais c'est un autre débat. C'est sûr, que penser "parallèle", ça force quand même à bien maîtriser son sujet.

avatar Glop0606 | 

Une performance d'ingénieurie vraiment top. Je suis bluffé par ce qu'arrive à produire Apple et cette révolution dans le domaine des processeurs. Je mets cependant un bémol à mon enthousiasme car comme à l'accoutumé, il n'y a pas de possibilité d'upgrade de la plateforme. Si un composant est défectueux, il y'a de fortes chances de devoir tout changer. Je trouve par exemple très louable de la part d'AMD de permettre que ces tous derniers processeurs soient compatible avec pratiquement toutes les cartes mères AM4 (5ans quand même)!

avatar anonx | 

Tout ça pour se faire ECLATAX par une 3090 🤣🥳

avatar Krysten2001 | 

@anonx

Attendons de voir en réalité car quand on voit que les premiers M1 talonnent des I9,…😉

avatar anonx | 

@Krysten2001

Justement la réalité semble contredire les fameux Benchmark donné par Apple... qui se prend de plus en plus pour Samsung des 10's 🤨😬

avatar raoolito | 

@anonx

tatata
les M1 talonnent les i9 dans certains rendus specifiques faisant appel aux processeurs dediés à la video. C'est documenté et demontré depuis un an et demi, date de sortie des 3090 RTX par ailleurs.

ensuite, il faudrait ptt ajouter ceci pour rappeler combien c'est bel et bien la RTX qui se fait "ECLATAX" tout simplement parce que...
https://www.notebookcheck.net/fileadmin/Notebooks/News/_nc3/NVIDIA_GeForce_RTX_3090.jpg
...est donc 30% plus rapide que ceci...
https://www.extremetech.com/wp-content/uploads/2022/03/M1-Ultra-GPU-1536x858.png

Allez vous couchez et tenter de réfléchir au monde et au réveil vous comprendrez :)

avatar Bounty23 | 

@anonx

Depuis la sortie des puces Apple Silicon la réalité montre qu’Apple à raison et que tout fonctionne super bien tout en consommant beaucoup moins. Mon Mac mini est plus puissant que mon ancien 16 pouces alors qu’il coûte 4x moins cher et travail dans un silence de cathédrale quand le 16 pouces donnait la sensation de
propulser une fusée de Space X à chaque démarrage, sans parler d’une consommation électrique divisée par 5.

avatar Rez2a | 

@anonx

D’une part, c’est déjà énorme qu’Apple arrive à se comparer à une 3090 sur la première génération d’ordis équipés de SoC maison.

D’autre part, si la 3090 se faisait ECLATAX par le M1 Ultra (ça sera peut-être le cas avec le GPU du Mac Pro, c’est potentiellement pas si loin), tu nous dirais que ça sert à rien parce qu’on peut pas jouer sur Mac et tu aurais raison.

Ça sert à rien de comparer un GPU orienté gaming et un GPU manifestement orienté pour le calcul dans le cas d’Apple, et je pense qu’Apple a tort de faire cette comparaison puisque ça induit en erreur les Kevin qui comparent les chips sur une utilisation gaming.

Par contre si tu veux nous donner ton avis sur les comparaisons d’Apple au niveau CPU, on t’écoute… 😅

avatar Yoshi_1 | 

@Rez2a

- ça induit en erreur les Kevin qui comparent les chips sur une utilisation gaming.

Merci ! Ça fait du bien quelqu’un qui remet en place les gens qui se br**** sur des chiffres — qui, que ce soit d’un côté ou de l’autre, sont mesurés dans des conditions optimales d’utilisation, donc par définition « trafiqués » — et non sur le fonctionnement général.

Oui peut-être qu’une 3090 est plus puissante, mais en terme de puissance brute, ce qui ne veut absolument rien dire, mais c’est difficile à comprendre chez les Kevin tu sais.

avatar barbe | 

Pourtant ce n'est pas la conclusion des Numériques dans le test du M1 Ultra :
POINTS FAIBLES
Performances brutes en deçà des CPU et GPU concurrents haut de gamme.
Et par haut de gamme il faut comprendre par rapport à du matériel qui va sur ses deux ans chez AMD, et qui plus est non destiné spécifiquement à une station de travail.
Grosse performance d'Apple dans le rapport puissance/énergie ce qui se traduit par un intérêt indéniable pour les portables, mais en terme de puissance pures, il faudra voir si les M2 montrent si Apple en a sous le pied car le M1 est encore dominé en puissance brute (et plutôt de manière importante par la nouvelle génération chez Intel).

avatar raoolito | 

@barbe

Sachant que ce qu'apple vend le plus ce sont les machines sorties en m1 des le premier jours, s'en sont suivi imac24 et mbp
Mais deja on entrait dans la niche

avatar marc_os | 

@ anonx

> Tout ça pour se faire ECLATAX par une 3090

Mais oui. Cependant...
« Notons que les benchmarks GPU sont assez subjectifs, le graphique d’Apple n’est pas nécessairement faux. Il montre un point de vue précis, à consommation égale. Le GPU de l’Apple M1 Ultra est largement plus performant que la puce graphique d’une GeForce RTX 3090. »
https://www.frandroid.com/marques/apple/1269613_lapple-m1-ultra-nest-pas-plus-puissant-quune-carte-graphique-nvidia-geforce-rtx-3090

avatar Insomnia | 

The verge a comparé la puce M1 ultra avec la carte graphique que Apple avait comparé lors de la présentation, la M1 ultra est très loin d’arriver à la cheville 😝

avatar raoolito | 

@Insomnia

30% de différence ?
Sisi la bonne cheville quand meme, d'autant que le paradigme est different

Rappel
https://www.notebookcheck.net/fileadmin/Notebooks/News/_nc3/NVIDIA_GeForce_RTX_3090.jpg
...est donc 30% plus rapide que ceci...
https://www.extremetech.com/wp-content/uploads/2022/03/M1-Ultra-GPU-1536x858.png

avatar Levrai | 

Un m1 pro est moins performant que le i5 12600k alors m1 qui talonne les i9 faut pas rêver...
En single Core sur geekbench 5 le M1 fait le même score qu'un i3-12300T, dans d'autres le m1 est moins performant... https://technical.city/en/cpu/Apple-M1-vs-Core-i3-12300

avatar vVDB | 

Cette technologie peut-elle être déclinée pour 'fusionner' 4/8/16... puces ?
Ou est ce une 'simple' astuce pour 2 ?
Apple va passer du M1 au M2, avec un gap de puissance de 20% ou moins ?

avatar fred33 | 

Si je passe le montage vidéo pro, la messe est dite pour qu’un PC puisse rivaliser côte perfs, la principale force du M1Ultra que n’a pas Nvidia, concerne la mémoire disponible pour le GPU. Apple vient de régler ce problème qui dure depuis un moment et mieux encore dans deux mois Apple va proposer un x2 avec le Mac Pro libérant les possibilités pour les éditeurs de logiciels Pro !

La cible : les utilisateurs ayant des projets à plusieurs dizaines de Gigaoctets de données à fournir au GPU. Ici l’Ultra pourra sans broncher travailler sur 100Go de donnnes graphiques quand la NVidia et sa limite des 24 « petits » Go verra des transferts RAM/CPU/GPU peser lourdement.

Et les benchs ne semblent pas rendre compte de cela alors que ce SoC vise particulièrement cette cible très spécifique. On a la meme chose avec certains usages du DeepLearning utilisant aussi de grandes quantités de données, mais j’attends de voir des tests sur le sujet.

Clairement difficile de comparer un PC sous Windows, assez bruyant/chaud, plutôt encombrant/lourd, pas discret, franchement intransportable et énergivore.

En face Apple innove avec un NUC sous MacOS très silencieux, léger, très compact et discret, transportable dans un petit sac à dos et à facture électrique modérée 🧾 .

Mais c’est loin d’être gagné pour Apple, il va falloir vendre le Studio à tous les devs et créatifs qui travaillent. Tous ces ports Thunderbolt, la facilité à ouvrir ce petit cube et la modularité du SSD va plaire à beaucoup !

Evidement la grosse niche des Gamers qui persistent encore sur PC ne sont pas concernés. Je ne sais même pas pourquoi on en parle.

La version Mac Studio M1Max me semble néanmoins un très bien positionné pour faire un carton.

avatar raoolito | 

@fred33

+1

Les gamers peuvent se rassurer: ils chaufferont plus, consommeront plus en echange de quoi ils auront bien le framerate qui compte pour jouer

CONNEXION UTILISATEUR