Le GPU de l’Apple M1 Max s’approche des performances d’une RTX 3080 portable 🆕

Nicolas Furno |

On a rapidement mis la main sur les premières mesures de performance du CPU intégré à l’Apple M1 Pro Max, la nouvelle puce d’Apple dédiée aux MacBook Pro. Mais il nous manque encore les premiers bench de son GPU, qui peut monter jusqu’à 32 cœurs en haut de gamme et qui doit affronter les meilleures puces graphiques de la concurrence.

En attendant les chiffres qui ne manqueront pas de fleurir dans les prochains jours, Apple a donné un bon indice des performances à attendre, comme le note @stroughtonsmith. En effet, le constructeur ne s’est pas contenté de graphiques promettant monts et merveilles face à une concurrence anonyme, il y avait une toute petite légende avec le nom des ordinateurs utilisés pour la comparaison.

Ce n’est pas écrit en gros, mais on voit bien les modèles de PC utilisés pour obtenir ces graphiques, en bas à droite du graphique diffusé hier par Apple.

Ainsi, Apple a comparé le GPU de son M1 Max à celui du MSI GE76 Raider 11U053 (ouf), un ordinateur dédié aux joueurs qui intègre une RTX 3080 de Nvidia. C’est le haut de gamme actuel de ce que le constructeur peut offrir dans un ordinateur portable et il est associé à 16 Go de mémoire dédiée. Selon le constructeur, sa puce haut de gamme offre des performances proches, mais en consommant 100 W de moins de puissance.

C’est un écart énorme, surtout quand on sait que l’adaptateur secteur fourni avec les MacBook Pro 16 pouces délivre 140 W au maximum. Mais il suffit de lire la fiche technique détaillée de l’ordinateur de MSI pour comprendre que l’on est dans un autre monde. Sur cet ordinateur fourni avec une alimentation de 240 W, la carte graphique peut solliciter à elle seule jusqu’à 155 W en pointe !

Pour le dire autrement, la carte graphique de cet ordinateur portable peut consommer plus que le MacBook Pro 16 pouces complet, y compris son CPU de 10 cœurs et son écran avec ses 7,7 millions de pixels qui peuvent être rafraîchis 120 fois par seconde. En comparaison, MSI se contente d’une dalle de 17 pouces en 1080p, même si son taux de rafraîchissement est plus élevé (jusqu’à 360 Hz).

Cet écart sur la consommation a de multiples conséquences. Physiquement, l’ordinateur de MSI est un transportable de près de 3 kg avec des choix esthétiques bien différents de ceux d’Apple, mais contraint par les règles en avion sur la capacité de sa batterie. Les deux ordinateurs sont ainsi bloqués à une batterie de 100 Wh, mais là où celui d’Apple peut offrir une autonomie décoiffante, avec 14 heures annoncées de navigation web, celui de MSI se limite à trois heures en usage normal selon ce test.

Image MSI

Et pour ne rien arranger, les performances de la carte graphique sont fortement limitées quand l’ordinateur est sur sa batterie. C’est logique, la batterie seule ne peut pas offrir 155 W de puissance et il faut utiliser l’ordinateur branché pour en profiter pleinement. Alors que les performances des nouveaux MacBook Pro sont valables que l’ordinateur soit alimenté par un câble ou uniquement via sa batterie. Et en agissant a priori dans un bien meilleur confort que le PC de MSI, en termes de ventilation et de température.

Apple a toujours choisi une voie bien différente de ces PC dédiés aux joueurs, en ne compromettant jamais le confort ou l’autonomie pour obtenir les meilleures performances. C’est d’ailleurs pour cette raison, entre autres, que l’entreprise a abandonné les produits d’Intel, AMD et Nvidia au profit de ses propres puces…

Test du Gigabyte Aero 17 HDR : l’anti MacBook Pro

Test du Gigabyte Aero 17 HDR : l’anti MacBook Pro

Mise à jour le 19/10/2021 10:11 : comme le notent plusieurs lecteurs, Apple a donné un meilleur indice encore des performances à attendre du GPU intégré à l’Apple M1 Max. Pendant la conférence, on a ainsi appris que la version avec 32 cœurs offrait 10,4 teraflops de performance.

Capture d’écran keynote octobre 2021.

Ces mesures théoriques permettent de comparer le GPU à ses concurrents et le bilan est alors moins positif que sur le graphique présenté plus haut. Sur le papier, la RTX 3080 portable de Nvidia peut monter jusqu’à 19 teraflops, près du double. Même le modèle en-dessous, la RTX 3070, affiche 16 teraflops d’après son constructeur.

Il faudra ainsi attendre les mesures concrètes pour savoir ce que la nouvelle puce d’Apple vaut réellement…

avatar Apero | 

@dem0

Alors comme tu dis une tour sera toujours plus performante surtout en terme de puissance par rapport au prix, mais si la puissance est aussi importante qu’annoncée (équivalent 3080 portable) alors oui ça permettrait de faire tourner la totalité des jeux PC dans des conditions très décentes 🙂 ils ne manques en fait que les jeux pour en faire une superbe machine gaming 😅

avatar YetOneOtherGit | 

@dem0

"Donc on peut imaginer plus de jeux sur mac qui rattraperait son retard sur le pc (à condition que les dévs si penchent) ? "

Non, ce n’est pas le champ des possibles techniques qui est un frein au AAA sur Mac mais une pure logique business 😎

avatar Un Type Vrai | 

Apple a déjà intégré des puce graphique folles dans des macbook pro (je sais, c'était il y a très longtemps, les gens ne s'en souviennent pas).
Mais ça n'a pas fait décoller le jeu sur mac.
Il ne faut pas oublier que si le marché Mac est petit, le marché MBP + option grosse CG est minuscule...

avatar YetOneOtherGit | 

@Un Type Vrai

"Mais ça n'a pas fait décoller le jeu sur mac."

Beaucoup imaginent que la chaîne de causalité démarre du potentiel technique des machines ce qui est faux.

Quand un marché est à ce point et depuis aussi longtemps cristallisé sur un écosystème (Wintel) essayer de faire bouger les lignes est extrêmement onéreux et extrêmement hasardeux.

Ajoute à ça:
- La relatives petite PDM du Mac
- Le fait que par construction les clients du Mac ne sont pas ceux pour qui le jeu ambitieux est essentiel (On a au mieux du jours acheteurs occasionnels de jeux)
- Le fait qu’une part conséquente des utilisateurs ne joue pas à ce type de jeux.
- Le fait que la frustration, pour un petit nombre, de ne pas trouver de jeux ambitieux sur Mac n’a pas eu d’effet nuisible sur la trajectoire commerciale du Mac
- Le fait qu’Apple est l’acteur de l’industrie ayant tiré le plus grand profit et de loin des évolutions du jeu vidéo (On estime qu’en 2019 les profits issus du jeu d’Apple sont supérieurs aux bénéfices cumulés sur le secteur du jeu de Sony, MS, Activision et Nintendo)
- Que l’économie du AAA est déjà difficile pour les éditeurs sur les plateformes Wintel & Consoles avec des coûts de production et de marketing croissant et des retours sur investissement souvent décevant
- Que même sur PC et Console, 50% du CA est déjà issue des modèles F2P

Tu arrives assez facilement à la conclusion qu’il n’est ni dans l’intérêt d’Apple, ni dans celui des éditeurs d’investir pour essayer de faire exister une plateforme de plus pour le AAA 😎

avatar algounet | 

Non car Apple refuse de mettre des API graphiques utilisées par les développeurs de jeu et les forcent à utiliser Metal, de plus une grande partie du parc des MACs n'ont pas de GPU dédiés ou des GPU de très faible puissance, et qu'il faut en plus retaper le jeu pour un CPU ARM maintenant.

Par contre Apple peut totalement gérer toutes les conversions elles-mêmes, comme Valve fait entre Windows et Linux.

avatar YetOneOtherGit | 

@algounet

"Non car Apple refuse de mettre des API graphiques utilisées par les développeurs de jeu et les forcent à utiliser Metal"

Effectivement avant Metal les Mac était submergé d’offres de jeux AAA à ne pas savoir où donner du portefeuille 🙄🙄🙄🙄

Croire que ce sont des freins techniques qui font l’absconse d’offres équivalente à l’écosystème Wintel c’est rester au raz de pâquerettes.

Les raisons sont bien plus larges et comme toujours issue du bon vieux ratio coût/bénéfice 🤑

avatar E3ast | 

Je me demande l’équivalent de la configuration de base ? 8 cœur et 16 de gpu on doit ce rapproché d’une 1080 ou plutôt une 2070 ?

avatar pocketalex | 

@East

Les premières machines sont expédiées, d’ici peu les benchs vont fleurir sur le net, et tu auras une réponse précise a ta question précise

Alors que là maintenant, à part le graphique « abstrait » délivré par Apple lors de la keynote, et sur lequel tout le monde se base pour faire des supputations au gros doigt mouillé… tout ça est un peu léger

Bref, patience, juste quelques jours

avatar Dimemas | 

et le M1 pro équivaut à une RTX 3050ti, soit entre une RTX2060 et 2070 mobile c'est bluffant !

Mais bon pas de quoi affoler les grandes marques du secteurs tellement ils ont la main mise sur le secteur.

avatar osv974 (non vérifié) | 

Apple Arcade va en profiter ^^

avatar laraigneegypsymontealagouttiere | 

Et d’ici la fin de l’année le prix des MBP va flamber au marché noir à cause des mecs qui vont miner des cryptos 😅

avatar Nielp | 

Quand on se rappel que la RTX 3080 c'était dans les 700-800€ TTC avant la flambée des prix. :)

Puis bon je suis certains qu'apple a pris le windows 10 bien crasseux fournit avec le pc portable pour faire ses tests. Donc techniquement on a des perfs inférieur au minimum de 20 à 25% à ce qu'elles peuvent être par rapport aux windows débloaté comme windows 10 ghost spectre... Ou une consommation bien largement supérieur pour la même chose à cause de toutes les cochonneries qui tournent pour rien.

Faut pas oublier que windows c'est un OS pour entreprise barbé d'une tonne de merde inutile et qu'il n'existe pas de réelle version pour les joueurs. Seulement des ersatz crées par des "fan" pour se débarrasser d'autant qu'ils le peuvent du superflu.

Ya juste à voir linux et ses drivers GPU à la ramasse qui arrivent quand même à tenir tête à windows, voir faire mieux sur par moment, avec des jeux qui tournent sur via WINE parce qu'ya peu de version native... Avec un vrai GameMode, des kernels spécifiques, DXVK, et autres joyeusetés qui n'existeront jamais, ou très partiellement, sous windows. :)

Si valve arrivait à pousser nvidia et amd à porter autant d'attention à la version linux de leurs pilotes graphiques qu'elles en ont pour la version windows. Resterait que la suite adobe et MS office pour retenir les utilisateurs sur le machin de la raimonde. :)

avatar lmouillart | 

"Si valve arrivait à pousser nvidia et amd à porter autant d'attention à la version linux de leurs pilotes graphiques qu'elles en ont pour la version windows."
Avec la steam deck basée de l'AMD et sur un GNU/Linux ça devrait vraisemblablement pas mal progresser.

avatar Nielp | 

Faudrait que ça soit plus qu'un simple partenariat entre AMD et valve mais une vraie volonté de la part de l'entreprise. :)

Restera toujours nvidia à la ramasse parce qu'elle s'en fout et regardera pour p-ê s'en occuper si la pdm progresse vraiment grace aux efforts des autres...

avatar 142xe14 | 

Je ne comprends pas le graphique fourni par Apple. A quoi correspond les données en Y sur l'échelle (relative performances) ? On a des valeurs mais pas l'échelle de mesure contrairement aux données en X mesuré en watt.
D'ailleurs quand est-il des coeurs dédiés aux Rtx sur ses nouveaux processeurs Apple, c'est quand même le principal attrait des gammes 20xx et 30xx de chez Nvidia !

avatar Lirche | 

@142xe14

Si je dis pas de bêtise, le performance 100 correspondait au max du M1

avatar macadock | 

On est sûr des 140W de l'adaptateur secteur ?

Sur la page des specs ils parlent de :
- Adaptateur secteur USB‑C 67 W (inclus avec la puce M1 Pro à CPU 8 cœurs)
- Adaptateur secteur USB‑C 96 W (inclus avec la puce M1 Pro à CPU 10 cœurs et avec la puce M1 Max, disponible avec la puce M1 Pro à CPU 8 cœurs)

Update: Ces infos sont uniquement pour le 14", j'avais pas vu

avatar Nicolas Furno | 

@macadock

Oui, j'ai pas détaillé, mais je me suis concentré sur le 16 pouces, vu qu'ils comparaient leur haut de gamme contre le haut de gamme de MSI.

avatar YetOneOtherGit | 

C’est assez amusant les discussions sur « qui a la plus grosse » mais dans les faits ce qui,compte vraiment c’est le gain de performance apporté par ces machines par rapport à celles qu’elles remplacent.

La proportion des cibles de ces machines qui sont dans un arbitrage entre les offres Wintel et Mac est absolument anecdotique.

Le fait qu’il y est éventuellement moyen de trouver une machine plus puissantes sur Wintel (Avec pas mal de contraintes en contrepartie de consommation d’énergie, de poids, de ventilation…) n’a quasiment aucune importance pour l’avenir commercial de ces offres 😉

avatar Un Type Vrai | 

Ce qui m'intéresse c'est "selon mon usage, dois-je opter pour un M1 Pro ou un M1 Max ?"

La question, elle est lente répondue

avatar YetOneOtherGit | 

@Un Type Vrai

"Ce qui m'intéresse c'est "selon mon usage, dois-je opter pour un M1 Pro ou un M1 Max ?"
La question, elle est lente répondue"

Tu t’es trompé d’interlocuteur 😉

Et la réponse me semble difficile sans tests et sans considérer les usages envisagées.

avatar Un Type Vrai | 

@YetOneOtherGit

J'abondai sur tes propos :
"La proportion des cibles de ces machines qui sont dans un arbitrage entre les offres Wintel et Mac est absolument anecdotique."
(Donc mon petit moi dit : En effet, moi je veux savoir quoi choisir entre l'offre Mac)

avatar YetOneOtherGit | 

@Un Type Vrai

"(Donc mon petit moi dit : En effet, moi je veux savoir quoi choisir entre l'offre Mac)"

Ok désolé je n’avais pas compris l’articulation du propos ainsi.

L’arbitrage me semble difficile pour le moment sans test en conditions réelles sur des usages qui sont les tiens.

Quelle part de ton travail repose sur la puissance GPU ?

Là est sans doute la clé 😉

avatar Un Type Vrai | 

A priori aucune part et le M1 Pro supporte assez d'écrans (2 17" ou un 34")
Je sais que les MBP 15" après 2014, c'était compliqué avec les GPU Intel, je pense qu'on est au dessus de cette puissance, donc un M1 Pro me va.

Mais il y a le doublement de la bande passante de la mémoire (aucune idée de l'impact sur mon travail par contre) et les premier vrai retours utilisateurs... Les chiffres c'est bien, la vraie vie... Si par exemple on remonte qu'un 34" WQHD rame un peu sur M1 Pro, j'aurai ma réponse :)

avatar YetOneOtherGit | 

@Un Type Vrai

« Mais il y a le doublement de la bande passante de la mémoire (aucune idée de l'impact sur mon travail par contre) et les premier vrai retours utilisateurs... Les chiffres c'est bien, la vraie vie... Si par exemple on remonte qu'un 34" WQHD rame un peu sur M1 Pro, j'aurai ma réponse :) »

Je suis de l’école qui donne fort peu de valeur aux benchmark synthétique grand public.

Une analyse détaillée des benchmark SPEC donne déjà plus d’informations pour peu que l’on soit conscient de ses enjeux.

Mais au final je crois ici bien plus à la subjectivité de la puissance ressentie, de la réactivité, du confort d’usage sur une semaine de travail qui n’est pas mesurable objectivement.

Beaucoup d’apport de la transition ARM sont difficilement réductible à un chiffre « magique »

Le point délicat reste évidemment le dimensionnement de son achat.

avatar MacPlusEtc | 

@YetOneOtherGit

"Le fait qu’il y est éventuellement moyen "

Le fait qu’il y ait éventuellement un moyen…

Vous aimez faire cette faute de manière assez récurrente, je me permet donc de vous le signaler. Vous avez raison de vouloir utiliser un subjonctif qui indique une absence de certitude en cohérence avec votre « éventuellement », mais l’expression affirmative est « il y a un moyen », verbe avoir, pas verbe être.

A part ça, nos attentes communes concernant le Mac mini sont donc à remettre à plus tard. Sans doute effectivement une machine moins importante mais elle devrait sortir un jour, sinon on il n’y a aucune raison que le mini Intel soit resté au catalogue.

Je pense enfin que vous pouvez, si cela vous permet d’avoir l’impression de rester au dessus de la mêlée, ressortir votre sempiternel argument de la logique business pour indiquer que vous pensez qu’Apple ne se lancera pas dans telle ou telle voie, puisqu’elle correspondrait à des marchés de niche.
Mais rien ne vous oblige aux attaques ad hominem en insultant avec morgue les enthousiastes qui aimeraient qu’Apple réponde à tel ou tel de leurs fantasmes. Ce ne sont pas de méprisables « malcomprenants », juste des enthousiastes, parfois un peu naïfs, et alors? Les gens raisonnables ayant un travail exigeant ne postent pas des litanies de commentaires sur un site dédié à une marque d’ordinateurs.
Comment s’étonner dès lors que quelques commentaires puissent être moins fondés que d’autres? Les gens partagent enthousiasme, consternation, manques, espérances.
Si vous avez le temps, commentez gentiment, vos avis ne manquent pas d’intérêts, mais de grâce, cessez de vouloir à tout prix surplomber les débats.

D’autant que si l’on suit votre raisonnement, qui part du constat que très peu de gens ont besoin de puissance dans les faits et que peu de machines « stations de travail » sont vendues, et qu’enfin tous leurs utilisateurs pointus sont sur wintel et ne vont pas changer, Apple n’aurait aucun intérêt à faire une version Max de son nouveau processeur, encore moins de continuer une ligne Mac Pro, et surtout pas de vendre des roulettes au prix d’un MacBook Air…

Le prestige compte aussi. Et pour celà, visée certains marchés de niche n’est pas incohérent. Les gens ont donc le droit de rêver.

Vous usez aussi souvent de l’argument « ça n’a pas empêché de vendre… » certes, les MacBook Pro se sont vendus et plutôt bien vendus avec seulement leurs ports Thunderbolt/USBC. Un choix qui personnellement ne me dérangeait pas. Alimentation, ethernet, vidéo et son sur le seul fil relié à l’écran (comportant un hub, on l’a compris) m’allait très bien. Il n’empêche que les espérances et les récriminations des insensés qui remettaient en question les choix de l’incontestable (d’après vous) marketing d’Apple ont été entendues.

Apple fait un gigantesque pas en arrière avec le culot ridicule de le présenter comme une nouveauté.

Aussi, pour le plaisir de vous lire, restez s’il vous plaît sur un ton plus agréable, avec l’humilité du doute et le respect de ceux qui alimentent les commentaires de ce site, fussent ils quelque peu délirants parfois (les commentaires, pas les auteurs).

Bien cordialement.

avatar YetOneOtherGit | 

@MacPlusEtc

"Vous aimez faire cette faute de manière assez récurrente, je me permet donc de vous le signaler. Vous avez raison de vouloir utiliser un subjonctif qui indique une absence de certitude en cohérence avec votre « éventuellement », mais l’expression affirmative est « il y a un moyen », verbe avoir, pas verbe être."

Hélas s’il n’y avait que ça 🥺

Je la détecte évidemment à la relecture mais …

avatar YetOneOtherGit | 

@MacPlusEtc

Pour le reste YOOG est un Git canal historique 😜

avatar abalem | 

@MacPlusEtc

Ouh la la, que ça fait du bien de vous lire ! Un commentaire circonstancié venant de quelqu’un qui s’intéresse au maniement et aux rouages de notre langue, et qui dit, avec respect, des choses qu’on se sent parfois de dire sur un ton plus piquant, tant le sédiment d’outrecuidance péremptoire finit par faire grincer des dents.
En revanche, je crains que votre appel mesuré ne se heurte encore une fois a l’engeance que vous exhortez à plus de tempérance… 🙄

avatar YetOneOtherGit | 

@abalem

"Ouh la la, que ça fait du bien de vous lire !"

Ce qui ferait encore plus de bien c’est que tu dises moins de bêtises 😄

Et essayes de produire des contributions du niveau de celles que j’ai proposées ici par exemple 😄

avatar abalem | 

@YetOneOtherGit

Impayable YOOG…

Tu as pensé à déposer un brevet sur le melon ? ;)

avatar YetOneOtherGit | 

@abalem

"Tu as pensé à déposer un brevet sur le melon ? ;)"

C’est là ce qui te sert d’esprit? 😳

C’est franchement court jeune homme 😮‍💨

Affligeant de vacuité même dans les tentatives de diatribe 🤢

Essayes au moins de produire une contribution qui est quelque valeur au lieu de t’essayer dans des tentatives d’essayer de faire le malin qui ne sont visiblement pas à ta portée 👶

Un propos apportent un éclairage étayé sur la part GPU des nouveaux présentés par Apple, comme je l’ai fait quand les attaques des crétins me laissent le temps de parler de choses sérieuses 🤓

avatar abalem | 

@YetOneOtherGit

Je te sens un brin susceptible dis donc, compère, tu en perds ton français, que tu ne maitrises déjà pas toujours très bien.

Je ne vais pas t’inventer des noms d’oiseaux, je te laisse ce plaisir, bien que tu t’en défendes souvent, après avoir insulté telle ou telle personne, en prétextant (c’est gonflé !) ne critiquer que les propos.

Ce ne sont pas tes contributions, ô combien salutaires pour le niveau de ce forum, que je critique, mais cette suffisance dont tu fais montre, que le contributeur précédent, comme d’autres, indiquait ; ce ton condescendant que tu affectionnes tant.

Pour le dire gentiment, et après tu pourras, si tu veux, continuer à nous postillonner dessus : ce n’est pas le fond, qui souvent fait mouche, mais la forme, qui chaque fois fait tâche.

avatar pocketalex | 

@MacPlusEtc

Je comprends le fond de vos propos mais à vous relire et relire pas mal de commentaires sur les différents articles consacrés à la keynote et aux nouveaux MacBook Pro, je me rends compte que le problème vient d’un « choc de culture » entre les trois audiences de ce site

La première audience, la plus importante, concerne des personnes qui sont sur Mac, qui apprécient la plate forme, mais dont les métiers, les usages, les besoins sont parfaitement comblés par un ordinateur bureautique à 1000 balles comme le MacBook Air
Manque de culture, désintérêt pour l’informatique type « station de travail », méconnaissances des métiers et des besoins des utilisateurs de machine « puissantes » pour travailler, et présent en énorme majorité, ces gens là sont complètement désemparés devant les prix des configurations (pourtant inchangés depuis 10 ans … un MacBook Pro toutes options a toujours couté plus de 5000€), et ne sont intéressés par la puissance GPU que pour faire tourner des jeux vidéo.
Ces incompréhensions tournent au champ de bataille dans les conversations tellement les méconnaissances et l’incompréhension des besoins « pro » leur sont étranger, et l’aspect « buté, jusqu’au bout du bout de certains » n’aide pas à calmer le jeu

L’autre audience, la pire, est constituée de passionnés. Pour majorité, ils ont connu une période de l’informatique appelée « l’âge d’or » où tout un chacun bricolait son ordi, plus qu’il ne l’utilisait, tout comme on démarrait sa voiture à la manivelle et on mettait les mains dans le moteur.
L’idée que l’informatique ait évolué vers une direction où les machines ne sont plus des bricolages à Papa, avec Apple en précurseur, leur est insupportable au plus haut point. Tellement qu’ils ont vrillé : de passionné de la marque, ils sont devenus haters, et chaque possibilité de participer à une discussion est l’occasion de casser la marque et ses produits. Pour ces gens là, tout ce que fait Apple est forcément de la grosse merde, et les tarifs d’Apple, de tout temps plus élevés que la concurrence PC sans qu’a la belle époque ça ne leur pose le moindre souci, est aujourd’hui le moyen de tirer à vue sur les utilisateurs d’Apple : forcément des débiles friqués m’as-tu-vu

Ceux là non plus n’aident pas à construire des échanges un minimum intéressant sur les différents sujets abordés

Reste une petite minorité qui ne sont ni des passionnés, ni des utilisateurs « légers » de l’outil informatique, mais soit des utilisateurs de machines types stations de travail, soit des personnes un minimum au fait de ce que sont ces machines et à quoi elles servent

Notre ami Git est de ceux là, et j’avoue qu’il se débat dans des discussions type « foire à neuneu », à expliquer par exemple qu’un MacBook Pro n’est pas un « objet de luxe, vu son prix, servant avant tout à se la péter », mais simplement un outil de travail tel qu’il en existe sur le marché PC, ou qu’il en existait avant chez Apple, aux mêmes tarifs, juste qu’ils étaient sous Intel.
Ou qu’un GPU pro n’est pas dédié à faire tourner des jeux vidéo, autre exemple.

Le coté atterrant de certaines discussions, parsemé de méconnaissance, de mauvaise foi, de jusqu’au boutisme de certains pousse forcément à des saillies aiguës, mais vous voulez quoi ? Que monsieur s’en aille pour que l’on puisse librement affirmer qu’Apple c’est de la merde, que PC c’est mieux, c’est l’évidence, et qu’une station de travail est nulle si elle ne sert pas à faire tourner Far Cry 6 ?
Il y a un site pour ça : Macbidouille

avatar YetOneOtherGit | 

@pocketalex

Personnellement dans les typologies je vois hélas depuis des années monter en puissance :

- des personnes qui considèrent que l’on peut dire n’importe quoi et réclamer que surtout on ne le fasse pas remarquer.
- des personnes pour qui Apple est devenu l’exutoire et le bouc émissaire de leurs frustrations politiques et sociales
- des personnes ayant de faibles connaissances, ce qui n’est absolument pas un pb, mais qui ne supporte absolument pas que l’on ose le leur dire et qu’on essaye avec patience de partager des connaissances
-des personnes incapables de faire la différence entre ce qui relève des faits de l’opinion
- des personnes qui ne supportent absolument pas qu’on leur fasses comprendre que la pseudo rationalisation de leurs désirs repose sur du vent
- Une détestation du rationalisme, des faits, des connaissances éprouvées, des principes de bases de l’approche scientifique…
- Et évidemment la terrible masse post-verité, conspirationniste, manichéisme…

Et de moins en moins de personnes avec qui il est possible de partager en bonne intelligence ses différences d’opinion et se vision.

J’ai vu disparaître en ces lieux bien des contributeurs de qualité fatigué des attaques incessantes de la masse des crétins.

Et si la persona de YOOG est souvent un git c’est que j’ai hélas appris au fil du temps que ma bienveillance, la diplomatie, la patience, la pédagogie… ne changeait hélas rien.

Et d’ailleurs chaque fois que j’y reviens comme les autres membres de qualité cela ne sert à rien hélas.

Le travail profond et de qualité que j’ai effectué pour donner des éléments de compréhension sur la procédure EPIC vs Apple sans prendre parti en est l’illustration même s’il m’a heureusement valu des remerciements et des encouragements.

Même des piliers autres fois très respectés ont changé leur posture et sont réfugiés dans une distance.

Bref je suis définitivement un vieux con de naissance totalement inadapté aux réalités de son temps 😄

avatar pocketalex | 

@YOOG

je n'ai qu'un truc à ajouter : ne change RIEN

avatar YetOneOtherGit | 

@pocketalex

"je n'ai qu'un truc à ajouter : ne change RIEN "

🙏🖖

avatar Dimemas | 

@pocketalex : "Il y a un site pour ça : Macbidouille"
franchement tu exagères là ...
ce site est beaucoup plus ouvert, beaucoup plus objectif que macg et mac4ever et c'est justement moins la foire à neuneu comme tu le prétends sur de nombreux points.

A un moment donné il faut faire un constat et si tu regarde de manière rétrospective, les dernier mac intel, c'était une catastrophe ! c'était un peu à cause d'intel certes, mais c'était la cata !
Il y avait Ive qui faisait des choix design dans lesquels Apple s'est enfermé, la touch bar c'était une connerie (à mon sens), et les perf n'étaient pas vraiment au rendez-vous.
en fait il n'y avait pas l'effet wahou qu'on a retrouvé ces derniers temps avec apple silicon.
et ça fait du bien !

Maintenant tu parle du hack en disant que ceux qui le faisaient étaient des haters et en les rabaissant (parce que j'en avais un et on s'est souvent pris le bec à ce sujet), tu es complètement à coté de la plaque.
Moi je dirais plutôt que c'est une question de choix et si on a la possibilité d'avoir un hack fonctionnel, plus puissant que ce qui se faisait sur mac intel, bah il fallait foncer, je l'ai fait et je ne le regretterait pas parce que j'ai appris des tonnes de choses et j'ai découvert une superbe communauté, beaucoup plus passionnante et plus intéressante que des gens comme toi qui n'acceptent pas la moindre critiques constructive ou non sur le mac, critique récurrente sur les sites non apple qui racontent n'importe quoi.
Désolé de te le dire.

c'est d'ailleurs ironique, quand je suis ici, j'essaie de garder un oeil critique sur ce qui est dit sur les produits Apple mais quand je suis sur un site non apple, je défends leurs produits tellement je vois des conneries monumentales...

edit : bon j'ai fait un tour là-bas, j'ai vu le topic sur le nouveaux MBP... effectivement, c'est plus vraiment comme dans mes souvenirs dit donc...

avatar Florent Morin | 

« Sur le papier, la RTX 3080 portable de Nvidia peut monter jusqu’à 19 teraflops, près du double. »

Avis personnel : c’est de la puissance purement théorique.

On l’a vu quand on est passé de OpenGL à Metal : le gain était significatif à matériel égal.

On mesurera le gain maximum dans quelques années.

avatar Nicolas Furno | 

@FloMo

Je suis d'accord, parce que sinon le graphique d'Apple serait carrément mensonger et ce n'est pas le genre de la maison. C'est pour ça, j'ai essayé de rester prudent dans le texte en disant bien que c'est théorique, on verra en vrai.

avatar Un Type Vrai | 

Avec "relative" en ordonnée ...
Moi je lis le graphique comme suit :

Quand le M1 Max est à son maximum, il consomme moins que les puces de gamerZ à leur minimum.
Je n'arrive pas à tirer d'autres conclusions vu le peu de pertinence de l'ordonnées...

Relative Performance...
Si c'était relatif au processeur lui même,
Pourquoi ils n'arrivent pas tous à 100% de leur puissance max possible ?

Si c'est relatif par rapport à un autre processeur non cité :
Pourquoi ne pas avoir mis ce processeur en question avec une échelle ou la "base" atteindrait 100% ?

A moins qu'il s'agisse bien de ça, mais que le processeur en question était la AMD Radeon Pro 5300M des anciens MBP ? Ça semblerait coller vite fait avec les chiffres annoncés. Est-ce qu'on peut compléter le graphique avec ce processeur pour vérifier ?

Une fois fait, on remarque quand même que l'Apple M1 Max arrive à 375 (3,75 fois plus que l'Intel ?) Du coup, l'autre GPU arrivant à 4,25, est-ce qu'il st bien 4,5 fois plus puissant que la Radeon Pro 5300M ?

L'ordonnée serait alors % performance par rapport à la carte du précédent MBP (Radeon Pro 5300M)

avatar Lirche | 

@Un Type Vrai

Si je me souviens bien, la relative performance 100 c’était le max du M1

avatar Un Type Vrai | 

@Lirche : Merci
C'est sûrement ça, puisque la carte que j'ai identifié a une puissance très proche et le graphique n'est pas précis :
( https://gfxbench.com/compare.jsp?benchmark=gfx50&did1=79877526&os1=OS+X&api1=metal&hwtype1=dGPU&hwname1=AMD+Radeon+Pro+5300M&D2=Apple+M1 )

Du coup, pourquoi ne pas avoir mis les Apple M1 et M1 Pro sur le graphique ? :D

Combien consomme le GPU du M1 à pleine charge ?

avatar flux_capacitor | 

@Un Type Vrai

Tu as dû bien comprendre que le graphique était simplifié au Max sans trop de chiffres ni trop de courbes pour qu'ils soit rapidement assimilable par la très large audience dans le peu de temps imparti à son affichage et compréhensible même pour un gamer.

avatar Un Type Vrai | 

Il a été simplifié pour dire "On est les plus fort" (normal, on est dans du pur marketing)

Par contre il aurait été aussi simple et plus constructif de faire le même graphique pour aider à choisir entre M1, M1 Pro et M1 Max.

avatar YetOneOtherGit | 

@FloMo

"Avis personnel : c’est de la puissance purement théorique. "

C’est une mesure de puissance crête plus orientée GPGPU que 3D CGI reposant sur le massivement parallèlisable LINPACK.

Bref un indicateur de puissance potentielle brut difficilement reproductible sur nombre d’usages et très discutable sur l’évaluation des performances réelles en 3D CGI, laissant de côté nombres d’enjeux de performances.

Il à été mis à la mode dans le marketing quand le TFlops a été franchi.

Au final et comme toujours : réduire la complexité et la diversité des usages à quelques chiffres brut de benchmark est une illusion 😉

avatar hougoul | 

3080 c’est 19 tflops de single et half precision
Le m1 max c’est 10 tflops de single precison (ps5) mais 20tflop en half. Les jeux utilisent massivement le fp16 d’où des performances approchant.

avatar debione | 

Alors en fait ce qu'il faut en retenir, c'est que si par watt dépensé Apple à fait un bond de géant, on reste quand même bien en deçà de ce que propose une 3080?

avatar debione | 

J'ai pas tout saisi...
Apple compare sa partie graphique face à une carte capable de délivrer quasi le double? Et fait des graphique qui montre le contraire? Un truc m'échappe....

avatar Glop0606 | 

Je me pose la question de ce revirement d'interêt d'Apple pour les gros GPU's... Je ne pense pas du tout qu'Apple vise le jeu sur ses Macs (ou à la marge). Je pense plutôt qu'on pourrait avoir une surprise l'année prochaine... je pense à une console de jeu portable à la manière d'une switch mais autrement plus performante. Je pense à un combo Apple Arcade/ Apple switch. Ca me paraîtrait logique vu la part du chiffre d'affaire réalisé par les jeux sur l'App Store, modèle mis en "péril" par les dernières actions d'Epic. Si Apple sort une console "à la Switch", il pourrait de nouveau fermé complétement son système à la manière des autres fabricants de consoles... Un M1 Gaming avec le CPU du M1 et le GPU du Max, ça pourrait envoyer.

Pages

CONNEXION UTILISATEUR