La puce M3 Ultra pourrait faire ses débuts dans le Mac Studio au milieu de l’année

Stéphane Moussie |

Maintenant que les puces M3, M3 Pro et M3 Max ont pris place dans les MacBook Pro et l’iMac, se pose forcément la question des autres Mac et de la puce M3 Ultra. S’il se dit que les MacBook Air pourraient gagner dès ce début d’année une puce M3, il faudrait se montrer un peu plus patient pour les machines de bureau.

Image MacGeneration

D’après une info de The Elec reprise par TrendForce, la puce M3 Ultra fera ses débuts dans le Mac Studio autour du milieu de l’année. Le Mac Pro n’est pas mentionné dans l’histoire. Simple oubli ou mise à jour plus tardive dans son cas ? Impossible de le savoir pour le moment.

La puce M3 Ultra, qui, sauf surprise, consistera en deux M3 Max « ultrafusionnées », serait gravée par TSMC avec le procédé N3E. Ce serait un changement par rapport aux puces A17 Pro, M3, M3 Pro et M3 Max qui sont produites en N3B.

Le N3B est le processus de gravure en 3 nm « standard », qui a un coût élevé et dont le rendement est considéré comme moyen. Le N3E offre un rendement supérieur au N3B — c’est important quand il s’agit de produire une puce aussi grosse que la M3 Ultra — et des performances un poil plus élevées, au prix d’une taille supérieure (certaines sections des puces font la même taille qu'en 5 nm).

Test du Mac Studio 2023 : le même en M2 ?

Test du Mac Studio 2023 : le même en M2 ?

Test du Mac Pro 2023 : la machine ne fait pas le pro

Test du Mac Pro 2023 : la machine ne fait pas le pro

avatar fleeBubl | 

Si la production arrive à un rendement plus élevé, il faudra supposer que le prix sera nécessairement plus séduisant.

avatar melaure | 

@fleeBubl

Tu vas faire pouffer de rire l’Oncle Cooksou !

avatar fte | 

@fleeBubl

Pour Apple. Uniquement pour Apple.

avatar raoolito | 

On peut imaginer que vu les ventes relativement faible des puces ultra (comparée aux M3 de base par exemple) il vaut mieux qu'elle aient un rendement correct sous peine de couter une fortune...

bon et pi la puce M3 extreme quoi !! Elle existe certainement dans les labos de Cupertino, et le mac pro donnerait alors la mesure de ce qu'il sait faire 🥲

avatar debione | 

@raoolito:
"bon et pi la puce M3 extreme quoi !! Elle existe certainement dans les labos de Cupertino, et le mac pro donnerait alors la mesure de ce qu'il sait faire 🥲"
Juste ce qu'il fait actuellement en un peu plus rapide, rien de plus...
La grosse révolution serait qu'il soit capable d'embarquer des quadro ou des 4090, mais la ce ne sera pas possible avec la route qu'a choisi Apple.

avatar hptroll | 

@debione

Ou qu’Apple choisisse de booster de façon disproportionnée le nombre de cœurs graphiques pour attaquer frontalement ce segment du marché mais dans ce cas, ce ne serait pas un « simple » dédoublement d’Ultra.

avatar fte | 

@hptroll

"Ou qu’Apple choisisse de booster de façon disproportionnée le nombre de cœurs graphiques"

Inutile sans API reconnue. Ça ne serait exploité que par Apple, donc sans intérêt hors Final Cut.

avatar hptroll | 

@fte

Il y a tout de même Metal : de ce que j’ai lu (je n’ai pas de compétences dans le domaine pour avoir ma propre opinion), les performances sont au rendez-vous même si l’API est beaucoup connu et utilisé que ses concurrents.
Associé à un hardware ambitieux et comparativement économe en énergie, cela pourrait susciter l’intérêt.

avatar fte | 

@hptroll

"cela pourrait susciter l’intérêt."

Tout prouve au contraire que ça ne suscite pas l’intérêt. Une API propriétaire pour du matériel propriétaire, incompatible avec toutes les API majeures. Quelques jeux l’utilisent sur iOS, oui. C’est tout. Metal est un désert.

Apple peut rendre son hardware aussi awesome qu’il le veut, il n’y a pas de logiciels. Nada.

avatar hptroll | 

@fte

Je ne m’intéresse pas suffisamment à cette partie du marché pour avoir un avis très éclairé. Mais dans les usages moyens, “intermédiaires” (pas hard core), on voit déjà les progrès de Metal associé aux cœurs graphiques : les jeux jouables malgré une couche d’émulation sont bien plus nombreux; les effets graphiques de l’OS (qui pouvaient être lourds sur les machines d’entrée de gamme) sont beaucoup plus fluides, les “quelques” jeux iOS qui utilisent Metal peuvent suffire à satisfaire tous les joueurs “intermédiaires” qui veulent juste un bon jeu graphiquement intéressant une fois de temps en temps.

Ceci étant, ce n’est pas le débat puisqu’on est en train de parler du très haut de gamme. Je pense qu’une fois l’API (même propriétaire) et le hardware disponibles, Apple a la puissance de frappe pour promouvoir ses solutions. Actuellement, elle n’a juste aucune solution dans ce segment. Ça deviendra intéressant si elle en propose. Elle peut racheter un studio ou (plus vraisemblablement) payer des studios pour adapter des jeux à Metal. Ou, sans doute plus intelligent, payer des studios pour adapter leurs moteurs 3D à Metal.

La contrainte énergétique est à mon avis amenée à prendre de l’importance et si Apple a une offre dans un tel contexte, elle peut se retrouver à être bien positionnée alors qu’elle est inexistante actuellement.

avatar LolYangccool | 

@debione

Mettre des Quadro ou des RTX 4090 dans un Mac ce serait faire l’extrême opposé de ce que fait et de ce que veut faire Apple : Maîtriser la consommation tout en proposant des performances honorables.
Avec une RTX 4090 les performances seraient certes présentes, mais la consommation exploserait, et ça c’est exactement ce qu’Apple évite de faire volontairement.

avatar greggorynque | 

@LolYangccool

Sauf qu’autant les puces M sont compétitives en CPU, autant elles se font marcher dessus en puissance GPU et avec un tel gap que ça devient un repoussoir pour beaucoup de secteurs d’activité.

Il est urgent pour Apple de renforcer sa puissance graphique s’ils veulent arriver à conserver une partie de leur clientèle historique (3D, design, architectes, …) qui les délaisse par absence de machines adaptées à leurs usages.

Par contre attention, je ne pense pas du tout qu’inné augmentation simple du nombre de cœurs suffise pour rattraper une Nvidia 4090 ou même une « simple » 4080 qui suffirait déjà bien.

En multipliant les cœurs graphique, les problématiques de chauffe risquent de devenir palpables. Contrairement à ce que bcp pensent, les M1 Max et m2 Max arrivent déjà a un petit thermique en tirant sur CPU + GPU en même temps.

Bref, tant qu’à avoir gardé le MacPro, je ne comprends pas pourquoi ne pas lui permettre d’utiliser des GPU tiers, ça permettrait de palier à cette lacune le temps que les puces M progressent en 3D.
Je pense qu’écrire un driver sera long mais moins coûteux que de disigner une puce qui se vendra seulement à quelques dizaines de milliers d’exemplaires.

avatar LolYangccool | 

@greggorynque

Oui les performances brutes en 3D sont moins bonnes.
Le drivers existe déjà… il faut « juste » le recompiler pour ARM.
C’est Apple qui a bloqué le driver NVIDIA sur macOS.
NVIDIA l’avait soumis à Apple et Apple l’a refusé à l’époque.
Je pense qu’Nvidia a du lâcher l’affaire mais qu’ils seraient prêt à soumettre de nouveau un drivers si Apple montrait un intérêt envers la chose.

avatar greggorynque | 

@LolYangccool
On est d’accord. Pas besoin d’être insider d’ailleurs :

Apple y verrait un intérêt si Nvidia leur refile un pourcentage débile du prix de leur GPU.
Du coup Nvidia préfère vendre ses cartes eux-même 🤷🏼‍♂️

Je pense qu’Apple sous estime vraiment l’intérêt d’avoir un fleuron GPU dans sa gamme.

Ils vendraient une option GPU même à 1000€ sur les studios, je l’aurais prise direct sur toutes nos machines.
(J’ai mis ce prix au pif, mais vu que l’option ultra coûte 2000€ ça ne serait pas surprenant)

avatar LolYangccool | 

@greggorynque

Après attention à la consommation… même une 4080, ça consomme à bloc comparé à une Mx Ultra.
La carte graphique a elle seule consomme combien de fois ce que consomme le SoC d’Apple ?

avatar greggorynque | 

@LolYangccool

Non pas si dingue. Et sans aucun problème intégrable au moins au châssis du Mac Pro.

Un M2 ultra c’est presque 300 W quand même.
Une 3080 externe c’est dans les mêmes eaux.

Mais en CPU uniquement, le m3 ferait moins de 50W. Donc un package global < 400 et sans double tenable en 300 avec un peu de downgrade Apple 😅

Je pense que le souci pour Apple c’est que pour intégrer des GPU externes, il faudrait soit vendre leur puce telle qu’elle et désactiver les cœurs graphiques (mais il faudrait intégrer et donc vendre une puce castrée hors de prix à produire)

Soit se faire chier à désigner une puce sans GPU juste pour une machine qui ne se vendra que marginalement.

avatar LolYangccool | 

@greggorynque

300W une M2 Ultra ? T’as une source ?
Il me semblait que c’était beaucoup moins que ça.

avatar greggorynque | 

@LolYangccool

https://support.apple.com/fr-fr/102027

Les GPU ça bouffe !
D’ailleurs je serais curieux de voir le ratio perfs/watts uniquement de leur partie GPU.
Je parie un billet qu’il est ok mais pas exceptionnel comme pour la partie CPU.

avatar LolYangccool | 

@greggorynque

Ok, merci. 295W ça commence à faire…
Y’a 80W de plus par rapport à la M1 Ultra, c’est énorme.
Après, la M1 Max est à 115W visiblement, et pour avoir un Mac Studio M1 Max (certes avec un GPU avec moins de cœurs), je n’atteins pas ces valeurs (monitorée avec iStat Menu).
Après, je n’ai pas très souvent un gros usage du GPU de mon Mac, c’est ça aussi.

D’après NVIDIA la 4080 consomme 320W au maximum.
La Founders Édition je suppose, du coup.

avatar debione | 

@LolYangccool:
Et il ne faut pas oublier qu'actuellement, la meilleur puces Apple en GPU équivaut à une 4060 qui elle en pic consomme 143W... Soit la moitié de ce peut consommer un M2 Ultra.
Pas sur qu'actuellement, si Apple était capable d'avoir une partie GPU au niveau d'une 4090, cette partie consommerait moins.
Et en y réfléchissant un tout petit peu, il se pourrait bien qu'en fait, la partie GPU d'Apple soit plus énergivore que les solutions Nvidia. Ce qui serait "con" vu que la majorité de l'argumentation d'Apple repose sur ce créneau.

avatar LolYangccool | 

@debione

Il ne faut pas comparer la conso de la M2 Ultra dans son intégralité avec la consommation d’un GPU uniquement, si c’était le sens de votre propos.

avatar debione | 

@LolYangccool:
Alors non, ce n'était pas mon propos.
On sait que les parties graphiques sont très énergivore, on sait que le principal atout CPU d'Apple est sa consommation très faible.
Un i7 13700k peut consommer jusqu'à 210W si on le pousse et même 250W en turboboost, il se fait mettre bien profond en consommation par les SiliconM d'Apple.
Si on prend le cas ou cet i7 serait couplé à une Nvidia 4060 on arrivera à des valeurs de l'ordre de 360W... Ce qui n'est finalement que 60W supérieur à la solution Apple.
Si on part du principe que la partie CPU consomme beaucoup beaucoup moins, il semblerait (mais c'est du doigts mouillé, j'en ai bien conscience) que les parties GPU d'Apple consomme finalement à minima autant (mais peut-être plus) que les solutions Nvidia.
C'était le sens de mon propos! ^^

Et encore, sur le site d'Apple, il est noté que la conso max du MAcpro est de l'ordre de 330W.

avatar fte | 

@LolYangccool

"La carte graphique a elle seule consomme combien de fois ce que consomme le SoC d’Apple ?"

Bonne question. Il consomme combien le M3 Ultra ?

avatar fte | 

@LolYangccool

"de ce que veut faire Apple : Maîtriser la consommation tout en proposant des performances honorables."

Je ne suis pas certain de ce que veut faire Apple. Mais côté graphismes et 3D en particulier, il n’y a ni consommation ni performance, cette partie des chips Apple ne sert qu’à Apple, et encore, pas des masses. Final Cut. End of story.

C’est déprimant au fond.

avatar LolYangccool | 

Pour la déclinaison Extreme des puces M, il faudra peut-être attendre au moins la génération M4.

avatar hptroll | 

@LolYangccool

John Siracusa parle d’attendre la M7, même.

avatar TDBI | 

J’attends la M3 Absolute !!!

Elle arrive quand b*rdel 😭

avatar chammer | 

Étant la puissance actuelle, on se demande à quoi bon. Il vaudrait mieux déjà optimiser les softs.

avatar FlodeLibourne | 

Pour le Macpro, le bruit circule qu’un exemplaire de l’actuel version aurait été vendu.
L’usine fabricant ce modèle a du être réouverte et son employé rappelé pour l’occasion. Il a du faire face à cet surcharge de travail inattendue mais aurait réussi à fabriquer cet exemplaire en moins d’un mois.

L’acheteur ayant souhaité garder l’anonymat il n’est pas possible de réellement confirmer cette information.

Par contre, pour un modèle M3 Ultra, il faudra attendre la fin de l’étude de marché car il reste un doute sur la rentabilité de ce modèle 🤪

avatar Saussau083 | 

@FlodeLibourne

J’ai vu ça mais apparemment ça ne serait qu’une rumeur 🤔 aucun exemplaire n’aurait été vendu depuis sa sortie

avatar 0MiguelAnge0 | 

Pour moi cette affirmation n’a aucun sens: la N3E n’offre aucune compatibilité au niveau cell par rapport à la N3B.
Cela veut dire qu’il faut reprendre tout le design de la puce ce qui pour les volumes confidentiels de la version Ultra n’a aucun sens économiquement parlant…

Bref…

De plus, beaucoup de sites dont MacG ont rapporté qu’Apple avait bien joué et à monopoliser toutes les resources de TSMC sur la N3B.
A l’époque j’avais indiqué qu’Apple a été poussé d’un point de vue marketing a sortir une puce en 3nm car vendre de la 5nm+++ allait être difficile une année de plus. Tous les autres se sont en effet concentrés sur la N3E moins chere, mais qui demande un redesign de l’architecture.
Donc non, Apple ne leur a pas soufflé les capacités de prod de la N3B mais plutôt personne d’autre qu’Apple en a voulu et du coup TSMC a juste sizé sa prod pour Apple….

avatar Mac1978 | 

Ça sent le sapin pour le MacPro, sauf si un traitement miracle sorti d’on ne sait où, arrive en 2024.

avatar SMLT | 

On en est encore là ? Je veux la plus grosse ? Dans l’absolu ? Ça n’a AUCUN sens ! On parle de quels besoins ? De quels workflow ?

Les performances d’un M3 Ultra seront déjà extrêmement hautes, aussi bien en CPU que GPU que ML ou qu’en encoding… Du coup cette puce va déchirer pour les utilisateurs concernés par les points forts de cette puce ! Et j’aimerai déjà savoir qui met à genoux son M3 Max ? En sachant que l’on va sans doute encore gratter quelques points de performances quand le soft sera optimisé pour son architecture.

Pour les autres c’est que ce n’est pas la bonne solution, qu’ils aient chercher le couple matériel / logiciel qui correspond à leurs besoins. La base quoi.

avatar debione | 

@SMLT:
Un simple rendu met à genoux n'importe quel proc/GPU... (si on a la même définition de mettre à genou, CAD utiliser à 100% pendant un temps donné)
Alors on peut être comme moi qui me contente encore d'un vieux proc, mais pour un pro, gagner 30% de temps à chaque rendu peut-être source de beaucoup d'argent gagné.

avatar SMLT | 

@debione

On se demande comment on a fait « avant ». On se demande aussi comment on a pu travailler sur MacIntel « avant ». Le gain est déjà massif… encore une fois une question de workflows et de besoins. De configuration adaptée (à l’ensemble du workflow pas juste au pic).

Et même pour les workflows demandeurs la machine passe son temps, hors cas très exceptionnels, à attendre le / la boulet(te) situé(e) entre la chaise et le clavier :-)

Après, effectivement, il y a qq cas où tout gain est rentable.

avatar debione | 

@SMLT:
"On se demande comment on a fait « avant »"

Avant c'était mieux!! C'est bien connu^^
Mais même pas besoin d'avoir des workflows demandeur... Filmer avec son smartphone comme avant et faire un petit montage du dernier anniversaire à papy, c'est pas la même si cela à été filmé en 720p ou en 4K...
La même pour le web, en 2003, le poids moyens des pages était de ... 93,7 Ko, 679 Ko en 2011, 1,9 Mo en en 2019, 2,3 Mo en 2023.

Après, perso je trouve aussi que la puissance est largement suffisante, je suis toujours sur un i7 de 2015 pour faire ma MAO. Mais il y a une énorme inflation des besoins de puissance... Le cas des jeux vidéos est un cas d'école, j'ai des amis qui roule sur des 4090 et qui les mettent à genoux.

avatar SMLT | 

@debione

Mais on voit bien qu’en pratique ce n’est pas ces configs qu’ont les gens ! On se fait marteler la tête par le marketing, les streameurs et cie mais on est très très loin de ça (cf. rapport steam tous les ans sur le matériel des utilisateurs). Et pourtant le jeu est sans doute l’un des domaines où l’on peut le plus facilement solliciter le hardware ! Dans ce domaine là aussi un M3 est pas débile (et donc le Pro et le Max encore moins…). Après le prix de la config reste élevé pour les performances graphiques pures et dures mais j’ai envie de dire que si tu achètes un Mac pour jouer bah… voilà quoi. Ou alors en GFN ! ✊🏻

avatar lll | 

De toute façon, question de la puce mise à part, il suffit de regarder la date de sortie du précédent modèle pour pouvoir déclarer qu'une sortie tôt dans l'année serait un manque de considération envers les acheteurs des Studio M2. Est-ce qu'Apple a déjà rafraîchi une gamme dans les six mois suivant une sortie ?

avatar nico_fr87 | 

@lll

L’iPad 4 par rapport au 3

avatar debione | 

@nico_fr87:
Il me semble aussi un mbp dans les années 2010.

avatar nico_fr87 | 

@debione

Possible oui

avatar debione | 

@lll:
Quel manque de considération? On achète à un instant T la machine dont on éprouve le besoin. Qu'il y ait des améliorations futures est inévitable.
A partir de quand on estime qu'il n'y aurait pas de manque de considération? 3mois? 6 mois? 5 ans?

Sinon, au final on achètera jamais rien, vu que sous peu de temps, un truc meilleur arrivera.

avatar lll | 

@debione : Un besoin à un instant T, c'est sûr, mais si ma machine connaît un rafraîchissement après six mois, alors que le précédent date de 12, je risque de me sentir un peu lésé et donc d'attendre un peu plus la fois d'après. Je suis pour des rythmes de sortie plus espacés, cela dit.

avatar debione | 

@lll | :

Je comprends votre sentiment, il est très... humain!^^ (je pourrais ressentir le même hein!)
Mais vous ne serez pas lésé dans les faits. Ni soumis à un manque de considération.

avatar cv21 | 

Apple veut-elle écouler ses puces M2 pour décaler autant la sortie des machines de bureau avec M3 ?

CONNEXION UTILISATEUR