Alder Lake : Intel trace sa route pour rattraper Apple (1/2)

Antoine Collin |

Intel a lancé en grande pompe la douzième génération de processeurs « Core ». D’autres ont déjà publié des tests, mais nous allons plutôt comparer ces nouvelles puces Alder Lake aux puces M1 Pro et M1 Max. Pourquoi ? Parce que les voies choisies par Intel et Apple sont très différentes, sans que l’on puisse dire que l’une est nécessairement meilleure que l’autre.

Il faut commencer par un petit résumé sur les choix d’Intel. Pendant des années, la stratégie de la marque était simple et suivait le modèle tick-tock. Un tick était une sorte de processeur de transition : Intel prenait l’architecture précédente et l’améliorait en passant sur une nouvelle finesse de gravure. On gagnait donc de la fréquence (généralement, une gravure plus fine permet de moins consommer à fréquence identique, donc d’augmenter la fréquence à consommation proche) et de la mémoire cache (à taille physique identique, il est possible de mettre plus de transistors).

Le but du tick, en plus d’améliorer les performances, était de stabiliser le processus de gravure. Le tock, pour la génération suivante, gardait la finesse de gravure mais passait sur une nouvelle architecture. Le terme « nouveau » doit être bien compris : Intel (ou Apple) ne part pas de zéro à chaque fois, mais modifie assez de choses pour considérer qu’il s’agit d’un processeur différent. Dans ce cas de figure, les performances s’améliorent grâce à la présence de nouvelles unités (ou instructions) ou parce que l’efficacité — le nombre d’instructions exécutées par cycle — augmente. Cette stratégie a fonctionné parfaitement jusqu’en 20141.

avatar Lucas | 

Merci pour l’article MacG ! 🙏

avatar Bounty23 | 

Vu la tournure que prennent les choses, la génération 3 d’Apple Silicon (donc M3 Pro par exemple) sera la définitive tueuse des PC qu’on connaît aujourd’hui.

Rien qu’avec une M1 on voit les performances énormes dans les logiciels optimisés pour, les nouvelles M1 Pro et Max redessinent tous les tableaux, et ça va enfin pouvoir attirer ses éditeurs, même si on a pas du x2 en performance chaque année à venir, ne serait-ce que 40% d’augmentation par an serait déjà énorme, et la gamme d’Apple sera complète (Mac Pro, iMac, tous les portables seront encore optimisés…)

Dans 2 ans, tout sera encore plus stable, les optimisations seront meilleurs et ça n’annonce que du bon.

avatar YetOneOtherGit | 

@Bounty23

"Vu la tournure que prennent les choses, la génération 3 d’Apple Silicon (donc M3 Pro par exemple) sera la définitive tueuse des PC qu’on connaît aujourd’hui."

Tu as utilisé quoi comme technique de divination ?

C’est assez péremptoire comme affirmation il me semble.

avatar YetOneOtherGit | 

« Intel trace sa route pour rattraper Apple »

C’est accrocheur sur MacGe mais je doute fort que l’objectif d’Intel soit de « rattraper Apple » mais plutôt de lutter contre les impressionnant efforts d’AMD qui vient encore de marquer des points avec ses dernières présentations 😉

avatar fatboyseb | 

J’ai le mien qui va débarquer, pour la tour je suis resté Windows avec un nouvel Alienware Aurora R13 avec I7-12700KF, RTX3090, 32Go DDR5. C’est surtout pour le jeu, ce qui reste compliqué chez Apple. Minage de crypto pdt les temps morts (ce que le M1 pro/Max, ne propose pas encore vraiment). La machine devrait être amortie après 2 ans de minage.
Ça fait aussi option chauffage d’appoint pour l’hiver qui arrive

avatar andr3 | 

Je suis content et satisfait de la puce M1 qui équipe mon Mac Mini.

Celui-ci est silencieux, ne chauffe pas et exécute gaillardement tout ce que je lui demande. Ce qui n’est pas le cas de mon MacBook Pro i9 qui fait le bruit d’un accueil de chasse, chauffe comme le cœur d’un volcan en éruption et n’exécute pas plus rapidement les mêmes taches que celles confiées au Mini M1.

Intel et Apple suivent chacun leur route avec leurs avantages et leurs inconvénients et c’est très bien ainsi.

J’attends encore quelques semaines que Monterey se stabilise pour remplacer et le Mini et le Intel i9 par un menu Pro M1 Pro ou Max.

avatar Cyrille50 | 

@andr3

Moi aussi je suis content et satisfait ;)

avatar Silverscreen | 

Ce qui est intéressant, c’est le gain de terrain d’Apple en entreprise. Apple Silicon n’est qu’une partie de l’équation, derrière, y’a les études de TCO favorables relayées pas de gros organismes, le MDM maison qui arrive avec du stockage iCloud pro et l’AppleCare Enterprise et ses conditions d’accès au service qui ont été abaissées. Apple intègre également de plus en plus de consultants dans son réseau ACN. Je ne me rappelle pas avoir vu Apple autant à l’offensive sur le secteur professionnel.
En comparaison, la bataille d’Intel pour le coeur des gamers c’est peanuts. Une bataille de mindshare peut être mais les vrais enjeux économiques sont sur le secteur pro et l’éducation. Une progression d’Apple et Google avec des chromebook ARM, une riposte de Microsoft avec des Surface ARM et ça peut être le début d’une vague sur le long terme avec une réduction progressive des x86.
Sur le long terme, je n’ai aucune inquiétude pour Intel : les besoins de serveurs sont grandissants mais dans le monde du desktop/laptop, on assiste peut être bien au début d’un changement irrémédiable de paradigme. D’un côté, de plus en plus d’usages passent au cloud avec moins de besoin de puissance en local, de l’autre x86 devient un ogre énergétique : va forcément il y avoir une rupture… Et Alderlake est très loin de changer la tendance…

avatar YetOneOtherGit | 

@Silverscreen

"mais les vrais enjeux économiques sont sur le secteur pro et l’éducation"

Le gros de la bataille de l’époque est comme toujours sur les secteurs qui ont de grosses perspectives de croissance et de rentabilité.

Le marché de l’ordinateur individuel est en régime établi depuis longtemps avec de plus ou moins bonne année mais ce n’est plus le grand champ de bataille stratégique.

La rentabilité des géants historiques que sont MS et Intel se fait bien plus sur la progression vertigineuse des infrastructures et du cloud.

Pour Intel et MS les usages sur le poste client sont déjà devenus minoritaires en CA et encore plus en profit et en croissance de ces derniers 😉

Et bien d’autres acteurs majeurs ont déplacé leurs investissements les plus conséquents vers ces secteurs porteurs.

avatar cecile_aelita | 

@Silverscreen

« mais les vrais enjeux économiques sont sur le secteur pro et l’éducation »

Quand je vois que je n’ai même pas d’ordinateur pour moi dans ma classe et que je dois emmener le mien 😰… les enjeux économiques sont peut être pour l’éducation… mais uniquement sur le papier alors 😋😘😘

avatar Silverscreen | 

@cecile_aelita

le sous investissement systématique sur l’(outil) informatique pour l’éduc nat est une spécificité assez française, malheureusement.
Et c’est même pas forcément une absence totale de moyens mais souvent des investissements totalement inefficients : je me souviens de l’école primaire de mes enfants en REP équipée d’ordis incompatibles avec leurs video projecteurs et TBIs, ou encore du collège d’à côté dont les PC claquaient à tour de bras en raison d’un appel d’offre uniquement axé ultra low cost et l’absence d’onduleurs.
En 5 ans, ils ont claqué en machines packard-bell de quoi acheter 1,5 fois un iMac pour chaque PC acquis.

avatar cecile_aelita | 

@Silverscreen

Et oui 😊.
Après quelqu’en soit la raison, ce que je voulais dire, c’est que malheureusement pour le moment … l’informatique à l’école … c’est juste sur le papier 😋

avatar YetOneOtherGit | 

@cecile_aelita

"c’est juste sur le papier"

Un outil incroyable de puissance et de potentiel qu’il est urgent de faire redécouvrir aux générations montantes.

Croire que l’on peut penser directement sur une machine est une lourde erreur.

Je le constate avec les jeunes générations à qui je fais redécouvrir la puissance de penser avec des schémas, des diagrammes, des notes sur papier ou sur un tableau avant de passer à la production du code.
(Évidemment une tablette et un stylet ça fonctionne aussi)

L’analyse et la synthèse d’un pb c’est grandement plus efficace avec la liberté formelle du papier/crayon que dans le cadre d’un IDE pour ne parler que de dev.

avatar cecile_aelita | 

@YetOneOtherGit

vu les budgets que j'ai, de toute façon, je n'ai pas le choix 😋

avatar YetOneOtherGit | 

@Silverscreen

Personnellement je militerai plutôt pour l’interdiction des écrans avant le lycée dans l’éducation 🤓

Le taux de pénétration de la chose informatique ne justifie plus sa découverte dans le cadre scolaire commercial dans le passé.

avatar Bigdidou | 

@YetOneOtherGit

« Personnellement je militerai plutôt pour l’interdiction des écrans avant le lycée dans l’éducation »

Pourquoi ?

avatar YetOneOtherGit | 

@Bigdidou

"Pourquoi ?"

Pour taquiner notre camarade, j’ai évidemment une position bien plus nuancée que cette caricature rigide qui a certes un fond de vérité mais est d’un affligeant manichéisme 😉

avatar Bigdidou | 

@YetOneOtherGit

« cette caricature rigide qui a certes un fond de vérité mais est d’un affligeant manichéisme »

D’ailleurs, les études qu’on nous sort à ce sujet sont très contradictoires…
Le mal vient souvent d’ailleurs, et l’écran alors un vecteur bien plus qu’un coresponsable.

avatar YetOneOtherGit | 

@Bigdidou

"Le mal vient souvent d’ailleurs"

Les pb liées au système éducatif sont souvent le fruit de sa capacité à servir de point de fixation à des enjeux de société bien plus large que lui 😉

avatar cecile_aelita | 

@Bigdidou

« Le mal vient d’ailleurs »
C’était pas plutôt : « la vérité est ailleurs » 😋😋
Oui oui je sais…..👉🚪

avatar YetOneOtherGit | 

@cecile_aelita

"C’était pas plutôt : « la vérité est ailleurs » 😋😋"

Nope : le mâle vient d’ailleurs

avatar cecile_aelita | 

@YetOneOtherGit

La vérité est ailleurs : X files
Le mâle vient d’ailleurs : films X

A une lettre près 😋

avatar YetOneOtherGit | 

@cecile_aelita

"Le mâle vient d’ailleurs : films X"

Absolument pas tu as l’esprit mal placé 😉

https://fr.wikipedia.org/wiki/L%27Homme_qui_venait_d%27ailleurs_(film,_1976)

avatar cecile_aelita | 

@YetOneOtherGit

N’empêche que je suis quand même fière de ma petite vanne de « une lettre près » 😋😋

avatar YetOneOtherGit | 

@cecile_aelita

"N’empêche que je suis quand même fière de ma petite vanne de « une lettre près » 😋😋"

Désolé d’avoir oublié de la saluer comme elle le méritait 🎩

avatar cecile_aelita | 

@YetOneOtherGit

😋😘

avatar YetOneOtherGit | 

@cecile_aelita

"😋😘"

🤗

avatar Ingmar97432 | 

Euh sauf erreur la 4ème génération c’était Haswell, puis Haswell Refresh, Broadwell c’était 5ème génération non?

avatar Cool Active | 

idem... En tant que prof aussi, j'utilise MON mac en classe.
Une question de budget... Tiens pourtant l'éducation (pour le politique) est un secteur prioritaire disent-ils.

A ce propos, les nouveaux processeurs M1, gèrent-ils rapidement les gros fichiers Exell et Word ?
Car sur mon Mac intel, la roue tourne souvent ... Et c'est embêtant à souhait

avatar Tibimac | 

"Nous voici arrivés à la douzième génération, [...]. C’est la première puce en 10 nm pour les PC de bureau chez Intel ... "

Ne serions nous pas en train de comparer des processeurs pour ordinateur portable (M1 Pro et M1 Max) à des processeurs plutôt prévu pour ordinateur de bureau (les nouveaux Intel) ? 🤔

Auquel cas le fait que la puce Intel soit plus rapide est un peu normal, surtout vu sa fréquence (et donc sa consommation électrique !!!). Il me semble qu'il sera plus approprié de comparer la future version ordinateur portable des Alder Lake avec les M1 Pro et M1 Max et de comparer les Alder Lake actuel (pour ordinateur de bureau) avec les futurs processeurs Apple pour iMac Pro et/ou Mac Pro.

De plus je fais peut-être un calcul "ridicule" mais si on prends le nombre de points GeekBench et qu'on le divise par, la fréquence en Mégahertz × le nombre de coeurs performants, alors on a :
Single Core :
- Intel à 1923 points : 1923 / 5200 = 0,3698076923 point / Mhz
- M1 Pro/Max à 1778 point : 1778 / 3200 = 0,555625 point / Mhz

Multi-Core :
- Intel à 16764 : 16764 / (5200 * 8) = 0,4029807692 point / Mhz
- M1 Pro/Max à 12600 : 12600 / (3200 * 8) = 0,4921875 point / Mhz

C'est peut-être un peu simpliste, je l'accorde mais il semble que finalement pour 1 Mhz Apple tire plus de puissance et toujours pour une consommation bien moindre !

avatar fte | 

@Tibimac

"C'est peut-être un peu simpliste, je l'accorde mais il semble que finalement pour 1 Mhz Apple tire plus de puissance et toujours pour une consommation bien moindre !"

Ce n’est pas que c’est simpliste, c’est que ça ne signifie rien.

Si tu abaisses la fréquence d’Alder Lake, tu peux également abaisser sa tension de coeur, refaire tes benchs et calculs avec ces changements en place, et tu obtiendras d’autres chiffres de perfs / MHz. Ce serait intéressant de voir quels chiffres donnerait Alder Lake à la même fréquence que les M1. Ou mieux, ce que donnerait un Ryzen.

Enfin, je dis intéressant. Pas vraiment. Ça ne signifie toujours rien.

Alder Lake en l’état n’est pas prévu pour ces conditions limitées et économes (à relativiser cependant). Il est configuré pour envoyer du bois quitte à sucer sa mère. Et il fait les deux.

Ryzen reste plus efficace tout en envoyant autant de bois. Mais avec un process d’avance sur Intel. Et un process de retard sur le M1. Que donnera Zen 4 avec le meme process que le M1 ? Possiblement très comparable, je devine.

avatar YetOneOtherGit | 

@fte

"Ce n’est pas que c’est simpliste, c’est que ça ne signifie rien."

Le nombre d’instructions exécutées par cycle reste un indicateur assez intéressant d’une architecture et, sauf erreur, ce me semble être ce que notre camarade essayait maladroitement de mettre en avant, non ?

avatar Tibimac | 

@YetOneOtherGit

En effet 😅

avatar YetOneOtherGit | 

@Tibimac

"En effet 😅"

C’est une vieille histoire :

https://en.wikipedia.org/wiki/Megahertz_myth

avatar fte | 

@YetOneOtherGit

"Le nombre d’instructions exécutées par cycle reste un indicateur assez intéressant d’une architecture et, sauf erreur, ce me semble être ce que notre camarade essayait maladroitement de mettre en avant, non ?"

Je n’ai rien vu de tel. Et le nombre d’instructions par cycle n’est significatif qu’à ISA identique. Si les ISA diffèrent, la quantité de travail effectuée par une quantité d’instructions donnée va varier grandement. Exemple : instructions vectorielles ou matricielles.

Et quelles instructions ? L’ISA programmeur ou l’ISA transcodée de la microarchitecture ? Qui varie parfois avec les mises à jour du microcode.

Et si on entre dans ce thème, il convient de considérer pipeline, prédiction de branchements, etc.

Bref. J’ai bien vu bench / MHz.

avatar YetOneOtherGit | 

@fte

"Je n’ai rien vu de tel. Et le nombre d’instructions par cycle n’est significatif qu’à ISA identique. Si les ISA diffèrent, la quantité de travail effectuée par une quantité d’instructions donnée va varier grandement. Exemple : instructions vectorielles ou matricielles.
Et quelles instructions ? L’ISA programmeur ou l’ISA transcodée de la microarchitecture ? Qui varie parfois avec les mises à jour du microcode.
Et si on entre dans ce thème, il convient de considérer pipeline, prédiction de branchements, etc."

Là je ne te rejoins pas, tu as souvent tendance je trouve à ramener un « toute choses égales par ailleurs » là où il n’a pas lieu d’être.

Et aussi à mélanger cause et conséquences, par exemple avec les enjeux d’architecture tel le pipeline, la prédiction, les caches, l’exécution out of order qui sont la cause d’une augmentation du nombre d’instructions par seconde.

De même les considérations de jeu d’instruction SIMD n’entrent évidemment pas dans le périmètre de ce type de comparaison.

Tout comme la notion de transpilation de l’ISA.

Je suis d’autant plus étonné par ta réaction que c’est là une métrique classique de l’architecture des processeurs depuis fort longtemps que tu sembles balayer d’un revers de manche.

Un des principaux objectifs des concepteurs de CPU a été de mettre en place nombre d’innovations architecturales impressionnantes pour augmenter ce nombre d’instruction par cycle qui est une dès clé de l’évolution des performances.

Et évidemment l’IPC n’est en rien une métrique absolue et indiscutable, juste un indicateur parmi d’autres.

Si ton objectif était de relativiser l’interprétation de cet indicateur je serai d’accord, mais nier quasiment son existence et son sens 😳

Bref pour une fois tes arguments me laissent vraiment dubitatif 🤔

avatar YetOneOtherGit | 

@fte

"Bref. J’ai bien vu bench / MHz."

Qui est une façon triviale et malhabile de parler de nombre de cycle par instruction le couplage des deux étant fortement lié.

Vraiment là je ne te piges pas sur un enjeu standard et classique

avatar Tibimac | 

@YetOneOtherGit

J'ignorais qu'il y avais un nom pour cela mais finalement ça ne me surprends pas.
Si le score du bench est lié à l'IPC alors oui la puce Apple semble avoir un meilleur IPC et ce d'autant plus si on considère que ce meilleur IPC est en plus obtenu avec une consommation électrique moindre.

avatar YetOneOtherGit | 

@Tibimac

Ce n’est pas nouveau et propre à Apple.

ARM à depuis longtemps un meilleur IPC que les x32/x64 😎

avatar fte | 

@YetOneOtherGit

"Vraiment là je ne te piges pas sur un enjeu standard et classique"

Tu plaques ce que tu imagines standard et classique sur les commentaires de quelqu’un qui ne sait peut-être pas ce qu’est un algorithme de prédiction de branchements et ses conséquences.

Mon propos était que cette mesure de bench / MHz ne veut rien dire. C’est ce qui était discuté. En abaissant la fréquence d’un processeur on augmente ce ratio.

Ce que tu imagines standard ne l’est de plus en rien. Les leviers d’augmentation de puissance sont multiples, et le nombre d’instructions par cycle n’est que l’un de ces leviers. Qui a d’ailleurs ses limites assez drastiques, chaque branchement foiré imposant une invalidation du pipeline ou dispatcher qui doit mécaniquement être plus long et / ou large pour augmenter le nombre d’instruction par cycle. Ce n’est même pas le levier principal et ce depuis je ne sais pas… 20 ans ? L’hyperthreading existe pour une raison…

Je ne pense donc pas que c’était une façon maladroite d’évoquer ce point. Point qui n’a pas plus de sens aujourd’hui que ce ratio bench / MHz par ailleurs, particulièrement entre ISA différentes, particulièrement entre RISC et CISC ou hybride comme le x86.

avatar YetOneOtherGit | 

@fte

"Tu plaques ce que tu imagines standard et classique sur les commentaires de quelqu’un qui ne sait peut-être pas ce qu’est un algorithme de prédiction de branchements et ses conséquences."

Je crois que l’un et l’autre savons de quoi il en retourne mais je ne vois pas en quoi cela change quoi que ce soit sachant qu’un des objectifs de la prédiction de branchement est justement d’améliorer le nombre moyen d’instructions exécutées par cycle 🤔

avatar YetOneOtherGit | 

@fte

"Mon propos était que cette mesure de bench / MHz ne veut rien dire. C’est ce qui était discuté. En abaissant la fréquence d’un processeur on augmente ce ratio."

J’avais essayé d’élargir le débat au delà des maladresses de notre camarade il me semble.

avatar YetOneOtherGit | 

@fte

"Ce que tu imagines standard ne l’est de plus en rien."

Là par contre je m’inscris en faux, c’est un classique de la littérature que tu retrouveras par exemple dans de nombreux papiers de l’IEEE 🤓

avatar YetOneOtherGit | 

@fte

"Les leviers d’augmentation de puissance sont multiples, et le nombre d’instructions par cycle n’est que l’un de ces leviers."

Aurais-je dit le contraire ? Par contre ce constat évident ne permet pas de balayer d’un revers de manche cette métrique 😎

avatar YetOneOtherGit | 

@fte

"Qui a d’ailleurs ses limites assez drastiques, chaque branchement foiré imposant une invalidation du pipeline ou dispatcher qui doit mécaniquement être plus long et / ou large pour augmenter le nombre d’instruction par cycle."

L’évaluation de l’IPC à évoluer vers un nb moyen d’instructions par cycle sur des benchmark quand les évolutions architecturales ont rompu le déterminisme prédictible de de l’exécution (la bonne époque où un bon programmeur en assembleur connaissait par cœur le nb de cycle machine invariable de chaque instruction)

Et il n’y a pas que le branchement prédictifs, de pipeline, de superscalaire, mais aussi d’exécutions out-of-order, de gestion de cache… qui ont rompu la prédiction facile du temps d’exécution à partir du source en assembleur.

avatar YetOneOtherGit | 

@fte

"Ce n’est même pas le levier principal et ce depuis je ne sais pas… 20 ans ? "

Il me semble comprendre, peut-être, la source du malentendu : tu ne considères que la période durant laquelle l’enjeu principal était de profiter de l’augmentation de la logique câblée pour réduire le nb de cycle machine nécessaire à l’exécution ?

J’embrasasse globalement l’ensemble des évolutions architecturales qui ont permis d’augmenter en moyenne le nb d’instruction exécutée par cycle, ce qui inclut pipeline, approche superscalaire, exécution dans le desordre, exécution spéculative…

Au final tout cela contribue bien à augmenter le nb moyen d’instruction exécutées par cycle.

avatar YetOneOtherGit | 

@fte

"Je ne pense donc pas que c’était une façon maladroite d’évoquer ce point. "

Ce me semble pourtant être le cas.

avatar YetOneOtherGit | 

@fte

"Point qui n’a pas plus de sens aujourd’hui que ce ratio bench / MHz par ailleurs, particulièrement entre ISA différentes, particulièrement entre RISC et CISC ou hybride comme le x86."

Là décidément je ne te rejoins que très partiellement 🤔

avatar Tibimac | 

@fte

Je ne comprends pas tout à votre débat et m'excuse de ma maladresse 🤷🏼‍♂️ mais serais-tu en train de dire que, quel qu'en soit le moyen, comparer ARM/Apple Silicon et Intel, bref comparer des processeurs d'architecture différentes n'a pas de sens justement parce-qu'ils ont une architecture différente !?

Si oui alors je ne suis pas d'accord. Pour moi on peut (et on doit ?) toujours comparer 2 objets dont la vocation est la même. De la même façon qu'on peut comparer une tondeuse normale et une tondeuse tracteur alors on peut comparer 2 processeurs, qu'importe leur architecture, et c'est dans ce cas justement d'autant plus interessant pour mieux comprendre leurs différences et les choix de l'un et de l'autre etc... 🙂

avatar fte | 

@Tibimac

"comparer des processeurs d'architecture différentes n'a pas de sens justement parce-qu'ils ont une architecture différente !?"

Oh non, du tout.

Ce n’est pas une question d’architecture, c’est une question d’objectif à atteindre qui diffèrent.

Je dis que dans l’absolu, comparer le ratio score de bench / MHz ne signifie rien, lorsque scores de bench et MHz différent, et lorsque ces deux processeurs sont capables - et doivent - de varier leur fréquence de fonctionnement. Et qu’ils tentent de remplir des missions différentes.

Il suffit d’abaisser la fréquence d’Alder Lake pour remonter ce ratio.

Sauf que le M1 est configuré pour tourner à x MHz max, peut-être n’est-il pas capable de plus note bien, et Alder Lake à y MHz max, parce que l’un vise l’efficacité alors que l’autre vise la performance sans fondre.

Et de constater que le second est moins efficace énergiquement que le premier ? Bah ouai, c’est clair, forcément.

Mais peut-être qu’en ramenant à scores identiques ou MHz identiques, on pourra avoir une idée de l’efficacité à configuration identique - score ou fréquence -, plutôt qu’à configurations et objectifs radicalement différents.

Pages

CONNEXION UTILISATEUR