Le GPU de l’Apple M1 Max s’approche des performances d’une RTX 3080 portable 🆕

Nicolas Furno |

On a rapidement mis la main sur les premières mesures de performance du CPU intégré à l’Apple M1 Pro Max, la nouvelle puce d’Apple dédiée aux MacBook Pro. Mais il nous manque encore les premiers bench de son GPU, qui peut monter jusqu’à 32 cœurs en haut de gamme et qui doit affronter les meilleures puces graphiques de la concurrence.

En attendant les chiffres qui ne manqueront pas de fleurir dans les prochains jours, Apple a donné un bon indice des performances à attendre, comme le note @stroughtonsmith. En effet, le constructeur ne s’est pas contenté de graphiques promettant monts et merveilles face à une concurrence anonyme, il y avait une toute petite légende avec le nom des ordinateurs utilisés pour la comparaison.

Ce n’est pas écrit en gros, mais on voit bien les modèles de PC utilisés pour obtenir ces graphiques, en bas à droite du graphique diffusé hier par Apple.

Ainsi, Apple a comparé le GPU de son M1 Max à celui du MSI GE76 Raider 11U053 (ouf), un ordinateur dédié aux joueurs qui intègre une RTX 3080 de Nvidia. C’est le haut de gamme actuel de ce que le constructeur peut offrir dans un ordinateur portable et il est associé à 16 Go de mémoire dédiée. Selon le constructeur, sa puce haut de gamme offre des performances proches, mais en consommant 100 W de moins de puissance.

C’est un écart énorme, surtout quand on sait que l’adaptateur secteur fourni avec les MacBook Pro 16 pouces délivre 140 W au maximum. Mais il suffit de lire la fiche technique détaillée de l’ordinateur de MSI pour comprendre que l’on est dans un autre monde. Sur cet ordinateur fourni avec une alimentation de 240 W, la carte graphique peut solliciter à elle seule jusqu’à 155 W en pointe !

Pour le dire autrement, la carte graphique de cet ordinateur portable peut consommer plus que le MacBook Pro 16 pouces complet, y compris son CPU de 10 cœurs et son écran avec ses 7,7 millions de pixels qui peuvent être rafraîchis 120 fois par seconde. En comparaison, MSI se contente d’une dalle de 17 pouces en 1080p, même si son taux de rafraîchissement est plus élevé (jusqu’à 360 Hz).

Cet écart sur la consommation a de multiples conséquences. Physiquement, l’ordinateur de MSI est un transportable de près de 3 kg avec des choix esthétiques bien différents de ceux d’Apple, mais contraint par les règles en avion sur la capacité de sa batterie. Les deux ordinateurs sont ainsi bloqués à une batterie de 100 Wh, mais là où celui d’Apple peut offrir une autonomie décoiffante, avec 14 heures annoncées de navigation web, celui de MSI se limite à trois heures en usage normal selon ce test.

Image MSI

Et pour ne rien arranger, les performances de la carte graphique sont fortement limitées quand l’ordinateur est sur sa batterie. C’est logique, la batterie seule ne peut pas offrir 155 W de puissance et il faut utiliser l’ordinateur branché pour en profiter pleinement. Alors que les performances des nouveaux MacBook Pro sont valables que l’ordinateur soit alimenté par un câble ou uniquement via sa batterie. Et en agissant a priori dans un bien meilleur confort que le PC de MSI, en termes de ventilation et de température.

Apple a toujours choisi une voie bien différente de ces PC dédiés aux joueurs, en ne compromettant jamais le confort ou l’autonomie pour obtenir les meilleures performances. C’est d’ailleurs pour cette raison, entre autres, que l’entreprise a abandonné les produits d’Intel, AMD et Nvidia au profit de ses propres puces…

Test du Gigabyte Aero 17 HDR : l’anti MacBook Pro

Test du Gigabyte Aero 17 HDR : l’anti MacBook Pro

Mise à jour le 19/10/2021 10:11 : comme le notent plusieurs lecteurs, Apple a donné un meilleur indice encore des performances à attendre du GPU intégré à l’Apple M1 Max. Pendant la conférence, on a ainsi appris que la version avec 32 cœurs offrait 10,4 teraflops de performance.

Capture d’écran keynote octobre 2021.

Ces mesures théoriques permettent de comparer le GPU à ses concurrents et le bilan est alors moins positif que sur le graphique présenté plus haut. Sur le papier, la RTX 3080 portable de Nvidia peut monter jusqu’à 19 teraflops, près du double. Même le modèle en-dessous, la RTX 3070, affiche 16 teraflops d’après son constructeur.

Il faudra ainsi attendre les mesures concrètes pour savoir ce que la nouvelle puce d’Apple vaut réellement…

avatar raoolito | 

@Glop0606

autant les jeux ca se discute, autant les app3D, c'est quand meme une niche, autant le GPGPU est au coeur des fonctions de calculs flottants est au coeur de tres nombreuses fonctions en machine learning par exemple., L'utilisation du GPU pour des logiciels comme apple photos, pixelmator, adobe sensei, mais on a aussi toutes les fonctions dans finalcutpro et autre soft 2D qui utilisent le GPU pour decharger les processeurs pour des effets en temps reel.
Bref, apple vise bien le marché pro graphistes/video/3D (?) et leurs softs necessite des gpu de plus en plus gros
nan ca p

avatar Glop0606 | 

Tout à fait, mon propos ne visait pas à minimiser l'importance pour les pros de calculs effectués en GPGPU mais surtout d'émettre l'hypothèse que la R&D de ces nouveaux GPU pourrait être utile à un nouveau produit Apple orienté jeu et donc gros marché.

avatar pocketalex | 

@Glop606

Oui, Apple a quelques intérêts à pousser la puissance GPU, à commencer par les apps pro qui de plus en plus s’appuient sur le GPU pour gagner en performances. Apple ne peut se permettre de sortir des machines pro sans une partie GPU un minimum sérieuse. Rien que ça justifie le travail sur la partie GPU des M1Pro et M1Max, on pourrait s’arrêter là au lieu de se branler la nouille

Je doute extrêmement fortement que le « jeu vidéo » soit une piste crédible

On sait tous que l’avenir d’Apple est l’AR (ou la voiture ?), et rien de mieux que des perfs 3D de haut niveau qui consomment très peu pour arriver à sortir une jolie paire de lunettes AR

Tout cela me parait plus réaliste, et logique, que la tentative d’aborder un secteur où Apple est totalement absent depuis des années et des années, où la cible est proPC ultra-convaincue, et où nombre de gros acteurs se sont cassés les dents. Déja qu’attirer le chaland sur une plate-forme avec des films et des séries est compliqué, qu’attirer l’amateur de musique hors de Deezer/Spotify est compliqué, alors attirer les gamers, les vrais gamers, sur des machines sans jeu …

avatar YetOneOtherGit | 

@Glop0606

"Je me pose la question de ce revirement d'interêt d'Apple pour les gros GPU's... "

Ce n’est pas un revirement c’est juste une ouverture du champ des possibles pour eux sur mobile avec cette transition ARM.

On en a rarement conscience mais les GPU sont depuis pas mal de temps des véritables microprocesseurs à architecture massivement parallèle certes moins généraliste que les CPU mais ayant connu une courbe de montée en puissance incroyablement supérieure à celle des CPU.

Et cette puissance de calculs ne sert plus exclusivement à générer des images 3D Temps.

Les usages que l’on appel GPGU deviennent très courant sur des outils de production de son, d’image, de vidéo… le GPU est utilisé pour effectuer des calculs très lourds bien plus vite que ne le ferait le CPU.

Les évolutions de productivité des applications de création de contenus ces dernières années sont majoritairement portées par cette utilisation du GPU qui apporte bien plus que les progrès en performance du CPU.

Pour l’anecdote : tu trouveras même sur PC des cartes graphique haut de gamme dépourvu de connecteur pour y brancher un moniteur, elles ne servent que d’accélérateurs de calculs en GPGPU.

L’équation GPU=Jeu Vidéo est très fausse.

Et certains acteurs du marché font la croissance de leur profit bien plus sur ce type d’usage que sur le jeu vidéo à l’instar de Nvidia par exemple.

avatar Glop0606 | 

Ce que vous écrivez très justement n'enlève rien au fait qu'Apple pourrait muscler ses cartes grafiques pour rentrer de plein pieds dans le jeux video qui mine de rien dépasse aujourd'hui les revenus du cinéma.

avatar YetOneOtherGit | 

@Glop0606

"pour rentrer de plein pieds dans le jeux video qui mine de rien dépasse aujourd'hui les revenus du cinéma"

#YaKaFoKon

pour tirer profit d’un marché il ne suffit pas que ce marché existe c’est un peu plus compliqué que ça.

et pour information il y a un léger biais dans la co:paraison qu’aime faire l’industrie vidéo ludique: ils donnent un chiffre incluant logiciel et matériel 😉

avatar airmax95 | 

C est drôle. Car niveau performance je viens de lire qu'ils avaient compare à une 3050. Et donc la c est très moyen. Côté énergétique. Rien a dire. C top.

avatar Dimemas | 

rtx3050ti !
Donc au dessus deune gtx 1660ti ! au dessus d'une 2060 mobile.
ça change tout là.
Franchement pour bosser (et pas jouer), c'est génial !

avatar bohdi07 | 

Bonjour a tous pour ma part j'attends avec impatience le M1 pro Max que je vais comparer avec un i9 9900K et une RX 5700 XT sur du Davinci Resolve pour ceux que ça intéresse je vais faire une vidéo youtube sur le sujet ma chaine Vinz Sfar

Je doute qu'un processeur fixe puisse être à la rue mais au vu de ce qu'il se dit et ce que je lis en test si la RTX3080 s'approche du M1 Pro Max la c'est fort mais a quel prix une chauffe et une ventilation accrue comme la toujours fait un portable haut de gamme intel macbook pro ce qu'on oublie trop souvent de dire

En revanche une amélioration des batteries est super même si la plus part de nous utilisons nos ordinateurs en non nomade...

avatar raoolito | 

@bohdi07

autant niveau i9 il va se prendre une saucée, autant la RX 5700XT il faudra vérifier. Possiblement aussi, mais c'est moins sur

avatar bohdi07 | 

@raoolito

J'espere punaise qu'il va vraiment être dans les choux

En tout cas qu'on aime ou on soit un hater Il faut bien reconnaitre que ses puces font la différence même Apple comme l'article de MacG sur Intel qui avoue son Big retard

avatar Un Type Vrai | 

"mais a quel prix une chauffe et une ventilation accrue comme la toujours fait un portable haut de gamme intel macbook pro ce qu'on oublie trop souvent de dire"

En consommant 100W de moins, je doute qu'il y ait des problème de surchauffe...

Il suffit de voir le M1 pour se rendre compte de la force de frappe. L'exploit du M1 sur CPU est-il du même ordre que le M1 Max sur GPU ? Voilà la question (d'après les chiffre, oui, c'est impressionnant)

avatar bohdi07 | 

@Un Type Vrai

ha oui ? le m1 j'ai que des echo positif mais j'ai jamais vu

Je pense et j'espère que tu as raison lol :)

avatar Un Type Vrai | 

Si un GPU a puissance égale (et toute chose égale par ailleurs, comme l'efficacité de la dissipation) consomme 100W de moins, il chauffe moins et donc s'éloigne des problèmes liés à la surchauffe (type throttling)
C'est de la physique.

ça ne répond pas à la question "Est-ce qu'il est vraiment aussi puissant et 100W de moins" :D

avatar romgiotti | 

En revanche côté GPU le M1 n'est pas terrible alors qu'annoncé comme possiblement apte au gaming. Un Metro Exodus sur mon MBP M1 16 Go c'est du Medium pour être en 40 fps.

avatar pocketalex | 

@ bohdi07

Attention aux benchs sur le sujet "vidéo"

Le M1, le M1pro et le M1Max ayant des prédisposition à traiter les gros flux vidéo via des fonctions cablées, cela donne des performances sublimes sur la tableau de compétition, mais totalement à coté des réelles performances possibles pour des usages divers et variés

Beaucoup se sont fait avoir lors de la sortie du M1 et des nombreux tests de youtubers sur Final Cut Pro. Ils faisaient aussi bien sinon mieux qu'avec de grosses tour suréquipées, et de conclure que le M1 était plus puissant que ces grosses tour dotées de core i haut de gamme ou de gros Ryzen ... ce qui est bien évidemment faux

Et nombre d'utilisateurs ont acheté un M1 pour faire autre chose que du traitement de flux vidéo, et là ... roulette sur roulette, surtout pour ceux qui ont acheté le modèle 8Go de RAM

avatar romgiotti | 

C’est vrai sur les performances brutes, mais un problème pour le Gaming : la M1 Max n’est pas câblée en Ray Tracing. Donc aucune comparaison.

avatar AppleCard | 

Ça peut faire tourner Fortnite et les SIMS de manière fluide ?

avatar Linker | 

Nvidia en PLS

avatar Liena1 | 

C’est impressionnant 😮

avatar maxime101286 | 

C’est un ensemble. Un mini disons avec M1 max et un écran à chier, disons pas Retina XDR… et bien zut. La machine hormis l encoche bien que voilà, est vraiment - sur le papier- interessante….

A voir un Geekbench avec parallells et win 10/11….

avatar feeloo007 | 

Bonjour à tous !
Petites remarques toutes bêtes.

Désolé si elles ont déjà été faites, je n’ai pas lu tous les commentaires.

sur la courbe, l’axe X est une valeur absolue, une puissance consommée en Watt.

sur la courbe, l’axe Y est une valeur relative (à quoi ? Peut être le rendu avec un M1 à une résolution donnée mais je crois qu’on n’en sait rien)

10,4 Teraflops, mla puissance du M1. Pour la partie GPU ? Uniquement GPU ? Ou tout ce qui pourrait avoir rapport au rendu graphique ?

Le dernier point me semble essentiel.

Pour peu qu’Apple ait une solution type DSR implémentée au niveau de Neural Engine qu’elle ne ferait pas apparaître dans la puissance brute du GPU, on pourrait avoir une puissance relative en rendu graphique plus élevée que celle obtenu avec un GPU de 10,4 To.

On est d’accord, il n’y a pas de ray-tracing sur M1 ** mais ça rejoins le problème de départ d’une comparaison relative sans avoir défini les conditions de la comparaison (résolution, type de rendu, blocage d la fréquence, usage de super sampling…)

Après, il est plus que probable que hors conditions très spécifiques, la partie haute du graphe soit rarement vraie.

Mais sur ce graphe, le point essentiel c’est la partie en X ou le rendu graphique a atteint son maximum alors que le PC de comparaison est en train d’afficher une image qui ne bouge pas…

avatar ArnaudB | 

[Modéré - SM]

avatar YetOneOtherGit | 

[Modéré - SM]

avatar Ced' | 

[Modéré - SM]

avatar flux_capacitor | 

[Modéré - SM]

avatar YetOneOtherGit | 

[Modéré - SM]

avatar YetOneOtherGit | 

[Modéré - SM]

avatar Ced' | 

[Modéré - SM]

avatar YetOneOtherGit | 

[Modéré - SM]

avatar iChris015 | 

[Modéré - SM]

avatar YetOneOtherGit | 

[Modéré - SM]

avatar YetOneOtherGit | 

[Modéré - SM]

avatar iChris015 | 

[Modéré - SM]

avatar YetOneOtherGit | 

[Modéré - SM]

avatar Calorifix | 

Avoir de la puissance c'est bien. Avoir des jeux pour profiter de cette puissance c'est mieux.

avatar flux_capacitor | 

Excuse mais on ne joue pas nous, on bosse.

avatar pocketalex | 

@Calorifix

Il y a sur le marché PC des machines parfaites pour le jeux. J’ai même bossé avec un Motion designer qui avait pris ce genre de config comme machine de travail. La soufflerie faisait un bruit pas possible à l’usage, la machine faisait 4cm d’épaisseur, pesait le poids d’un âne mort, et ne pouvait fonctionner sans y brancher l’adaptateur secteur gros comme un moellon

Le MacBook Pro est une « station de travail » (attention, terme dévoyé mais admis) qui a certes de belles capacités GPU, mais qui est doté comme toute station de travail de composants fort couteux et dédiés au « travail »

Ce serait donc cher payé une machine qui, sur le simple terrain du jeu vidéo et rien que du jeux vidéo, offre les performances d’un PC gaming vendu la moitié du prix

Donc pour te répondre : pour profiter de cette puissance, il faut des apps pro qui vont profiter À FOND du GPU, c’est aussi simple que ça, et c’est pour ça que cette machine a été conçue

Vous n’avez pas regardé la keynote ? Tout y est pourtant clairement expliqué, encore faut il un minimum connaître les métiers qui y ont été présentés

avatar pechtoc | 

Il faut surtout comparer aux autres SoC avec GPU intégré, et la Apple a vraiment poussé les perfs très loins. Par contre comparer à une 3080 n'a pas trop de sens, d'autant plus que c'est une carte dédié au jeux. La gamme pro proposant des perfs brutes intéressantes sur les logiciels de vidéo, CGI, sont tout autre. Finalement ces chiffres on leur fait dire ce qu'on veut, à voir sur les logiciels de rendu et montage ce que ça donne. Je ne doute pas que les logiciels maison seront optimisés au petit oignons pour ces nouvelles puces mais faut voir sur le reste.

avatar yasuo87 | 

@pechtoc

Clairement j’espère que les gens qui ont précommandé les nouveaux MacBook ont pris le max de ram vu qu’elle est partagée et pas dédiée. Pour les comparaisons, il aurait mieux valu comparer les M&. Pro/Max avec des quadro RTX plutôt qu’à des GPU de gamers on aurait ptet moins eu de gamers dans les commentaires

avatar pechtoc | 

@yasuo87

Surtout que ces M1 Pro/Max n'ont pas vocation à être des machine "gamer". Après, la comm d'Apple prend un laptop "gamer" pour comparaison donc les réactions étaient prévisibles. J'attends de voir les performances sur les logiciels pro. Le SoC Apple est très performant pour les interactions entre CPU, GPU et coprocesseurs et la mémoire partagées, ça devrait dépoter.
Sur du jeu, je ne sais pas si une telle archi est si intéressante.

Bon après on parle de laptop, une 3080 laptop est très loin de celle pour desktop. C'est encore plus le cas pour les CG pro. Je me demande ce que compte faire Apple sur le Mac Pro.

avatar laraigneegypsymontealagouttiere | 

En tout cas j’ai l’impression que le gap entre M1 et M1 Pro/max est vraiment conséquent

Si l’écart est de meme ampleur voire meme plus entre ces SoC et ceux qui équiperont les futurs Mac Pro, alors les Mac Pro seront monstrueux

avatar pocketalex | 

"En tout cas j’ai l’impression que le gap entre M1 et M1 Pro/max est vraiment conséquent"

clairement ! surtout en perfs multi, c'est là qu'on attendais des résultats, on a été servi.
Et en perfs GPU bien sur, les gars qui font de la 3D vont apprécier

Mais c'était obligé, tout comme le gap entre un core i5 bureautique et un core i7 ou i9 est tout aussi conséquent, vu les prix demandés pour ces machines "pro" (attention terme dévoyé) si il y a pas du lourd derrière ça va pas le faire

Là, on a du lourd derrière, et de l'autonomie ! C'est ce qui distingue les nouveaux Mac des PC : ils sont pas forcément "plus puissant", non, ils sont tout aussi puissant (avec des variations ici et là) mais ils permettent de travailler en mobilité, vraiment. Pour des machines appelées "portables", c'est pas mal

"Si l’écart est de meme ampleur voire meme plus entre ces SoC et ceux qui équiperont les futurs Mac Pro, alors les Mac Pro seront monstrueux"

On parle d'un SOC 32core CPU, 128 core GPU. C'est une rumeur bien sur, mais si c'est le cas, ça va balancer du TRES lourd pour ceux qui ont ces besoins un peu extraterrestres

avatar amanray (non vérifié) | 

4000 euros pour 10 TFLOPS ? Les 3090 NVIDIA sont à 36 TFLOPS

Pages

CONNEXION UTILISATEUR