Comment Intel fait piétiner les Mac
Après avoir débattu de l'absence des processeurs AMD dans les Mac dans un article précédent, tournons-nous maintenant vers Intel, le choix principal d'Apple depuis le milieu des années 2000. Mais avant de parler de la situation actuelle, un peu d'histoire.
Comment fonctionne un processeur
Intel a inventé le concept de microprocesseur au début des années 1970, avec le 4004, et son premier processeur « x86 » date de 1978. Le nom fait référence au nom de la puce, 8086, et au jeu d'instructions, qui a évolué depuis tout en gardant une rétrocompatibilité.
Le jeu d'instructions est l'ensemble des commandes que le processeur peut exécuter. Il en existe de plusieurs types : x86 (Intel, AMD), ARM (ARM, Apple, Qualcomm, etc.), 68000 (Motorola), PowerPC (IBM, Motorola, Apple, etc.)… Ils évoluent régulièrement, mais gardent généralement une rétrocompatibilité : un processeur récent accepte souvent les programmes écrits pour un ancien CPU avec le même jeu d'instructions.
Au fil des années, le x86 a évolué sous des marques successives : 80386 (le premier 32 bits), Pentium, Pentium Pro, Pentium 4, Core Duo, Core 2 Duo, Core i7, etc. Nous n'allons pas citer tous les modèles — ils sont trop nombreux — mais il faut retenir une chose : Intel fait évoluer très régulièrement ses puces. Et pour comprendre ce qui se passe actuellement, il faut parler d'architecture, de gravure, de cœurs et de fréquence.

L'architecture, en schématisant, est la base du processeur. Un CPU avec une architecture précise (par exemple Skylake actuellement) va disposer d'une liste d'instructions x86, qu'il va exécuter en un nombre de cycles précis. Le passage dans une nouvelle architecture (par exemple Sunny Cove) va modifier l'agencement interne des unités de calcul, de la mémoire cache, les instructions supportées ou le nombre de cycles nécessaires pour une instruction.
Le but, dans la majorité des cas, va être de diminuer le nombre de cycles pour accélérer les calculs. Changer d'architecture nécessite évidemment beaucoup de R&D, et les concepteurs de CPU disposent d'autres méthodes pour améliorer les performances : augmenter le nombre de cœurs, augmenter la fréquence ou améliorer la gravure.
La première solution n'est efficace que dans une certaine mesure : ajouter des cœurs n'a pas d'impact sur tous les usages et augmente la consommation et le coût du CPU. La seconde a un impact direct sur les performances mais aussi sur la consommation. De plus, la fréquence dépend en partie de l'architecture 1, ce n'est donc pas un levier totalement efficace.
Enfin, la gravure. On parle de x nm (nanomètres) pour indiquer la taille des transistors. Plus la valeur est faible (et donc plus les transistors sont petits), plus la consommation diminue (en théorie). Améliorer la finesse de gravure permet de mettre plus de transistors sur la même surface (donc plus de cœurs, de mémoire cache, d'unités, etc.) et d'augmenter la fréquence (à consommation égale) ou diminuer la consommation (à fréquence égale).

Intel n'utilise que deux leviers
Nous l'avons vu dans le premier article sur AMD, il est possible d'utiliser les quatre avancées simultanément : les Ryzen 3000 utilisent une nouvelle architecture (Zen 2), une fréquence plus élevée, plus de cœurs (jusqu'à 16 en grand public) et une gravure plus fine (7 nm au lieu de 12 nm).
Or, depuis 2015, Intel n'exploite que deux leviers : augmenter la fréquence et augmenter le nombre de cœurs. Pour diverses raisons, comme l'absence de concurrence à l'époque et des choix malheureux dans le monde mobile, le développement de nouvelles architectures a été mis en pause. La seule innovation dans ce domaine date de fin 2019 avec Ice Lake (le nom de la gamme mobile) et son architecture Sunny Cove2.
Vous vous demandez pourquoi Intel n'améliore pas la gravure ? Parce que c'est compliqué. Historiquement, Intel grave ses puces directement, sans faire appel à un fondeur externe comme TSMC, Global Foundries ou Samsung, au contraire d'AMD actuellement, ou d'Apple.
Pendant des années, la société avait une avance confortable sur ses concurrents (jusqu'en 2013 environ) avant de tout perdre rapidement. Le passage du 22 nm (Haswell, Core de 4e génération) au 14 nm (Broadwell, Core de 5e génération) a été horrible pour Intel, avec un rendement très faible.
Pour bien comprendre : les CPU sont fabriqués sur de grands disques de silicium (les wafers) et le rendement est calculé en prenant le nombre de processeurs utilisables à la fin divisé par le nombre de processeurs gravés. Le but, évidemment, est d'avoir un rendement élevé, proche de 100 %.
Or, la gravure en 14 nm n'a jamais été parfaite, comme les pénuries récurrentes de puces le montrent bien, mais surtout le passage en 10 nm, l'étape suivante chez Intel, a subi le même sort. Intel a dû abandonner son premier CPU en 10 nm (Cannon Lake) et les Core de 10e génération combinent des modèles en 10 nm (Ice Lake) et 14 nm (Comet Lake).

Skylake, encore Skylake, toujours Skylake
Vous lirez ou entendrez souvent qu'Intel n'innove plus, et c'est malheureusement en partie vrai. Depuis la sixième génération Core (2015), la base ne change pas. Skylake (qui désigne ici l'architecture et la gamme de processeurs) était une nouvelle architecture qui succédait à Broadwell (un CPU vu dans quelques Mac portables) avec une gravure en 14 nm.
À l'époque, le haut de gamme possédait quatre cœurs avec une fréquence maximale de 4,2 GHz en mode Turbo (le Core i7 6700K), le tout avec un éventuel GPU de la neuvième génération (la série 500). La septième génération (Kaby Lake) n'amène… presque rien. La partie CPU ne bouge pas, mais monte (un peu) en fréquence : 4,5 GHz dans le Core i7-7700K et ses quatre cœurs. Les rares modifications concernent le GPU (série 600) : il gagne le décodage matériel du HEVC en 10 bits et quelques optimisations sur la fréquence.
La huitième génération (Coffee Lake) ? Même chose. On reste en 14 nm, avec une augmentation de la fréquence (5 GHz au maximum) et du nombre de cœurs (six sur les Core i7). Mais les performances à fréquence identique n'évoluent pas. Le GPU gagne un petit U dans le nom (par exemple Intel UHD Graphics 630) qui indique juste la prise en charge des DRM (HDCP 2.2).
La neuvième génération, Coffee Lake Refresh, ne change toujours rien. C'est du 14 nm avec une fréquence élevée (5 GHz) et plus de cœurs (huit dans le Core i9-9900K). Le GPU, lui, ne bouge pas. Sur cette génération, un gros problème survient : monter la fréquence et le nombre de cœurs a un impact direct sur la consommation. Un Core i7-6700K avait un TDP (en simplifiant, la consommation maximale) de 91 W, un Core i9-9900KS monte à 127 W et cette valeur est trop faible pour vraiment profiter du CPU. Il faut débrider le TDP — ce que les Mac ne proposent pas — pour tirer la quintessence du CPU, qui consomme alors plus de 160 W. Nous en arrivons aux dixièmes générations (oui, il y en a deux) qui nécessitent quelques explications.

Dixième ou dixième ? Mon cœur balance
Nous venons de le voir, Intel vend grosso modo la même chose depuis 5 ans. Skylake offrait d'excellentes performances en 2015 et offre toujours de bonnes performances en 2020. Mais il y a de la concurrence, que ce soit dans le monde du x86 avec les Zen 2 d'AMD ou dans le monde ARM avec les puces Ax d'Apple.
Le premier essai d'Intel en 10 nm, qui portait le nom de Cannon Lake (architecture Palm Cove), a été une vraie débâcle. Il s'agissait essentiellement d'un Skylake gravé en 10 nm avec un GPU qui ne fonctionnait pas (dixième génération) et quelques instructions ajoutées (AVX-512). Sorti en catimini dans un NUC et dans un PC portable chinois, Cannon Lake a été rapidement poussé sous le tapis, et son évocation amène directement un silence gêné chez Intel.
Deuxième essai, Ice Lake. Il s'agit de la vraie dixième génération, que l'on retrouve notamment dans les MacBook Air 2020. Premièrement, Ice Lake inaugure une nouvelle architecture (Sunny Cove) qui offre des gains intéressants (jusqu'à 15 % dans certains cas). Deuxièmement, le GPU gagne en puissance (64 cœurs au lieu de 48 au mieux auparavant), en fonctions et en consommation.
Mais Ice Lake a un souci : la gravure en 10 nm. Intel ne maîtrise pas encore celle-ci et cantonne donc Ice Lake au monde mobile, avec des puces dotées de quatre cœurs et des fréquences conservatrices (4,1 GHz).
C'est là que la seconde dixième génération intervient : Comet Lake. Attention… roulements de tambour… Intel continue de recycler Skylake. C'est du 14 nm, avec le même GPU, le même CPU qu'en 2015 et plus de cœurs et de fréquence. Comet Lake va monter à 5,3 GHz et 10 cœurs (dans les machines de bureau, 8 cœurs en portable), avec évidemment la consommation associée…
Globalement, Comet Lake n'a que peu d'intérêt mais vous n'aurez de toute façon pas le choix : tous les constructeurs y passeront, Apple compris, ne serait-ce que parce qu'Intel arrêtera la « génération » précédente.

Les Lake du Connemara
Avant de parler du futur, il faut tout de même évoquer le fait qu'Intel essaye de proposer des choses intéressantes, comme le récent CPU Lakefield. Gravé avec plusieurs technologies, il combine un cœur puissant (Sunny Cove) avec quatre cœurs qui consomment peu et offrent des performances faibles (Tremont, vu dans les puces Atom). Cette voie vous semble familière ?
C'est normal, c'est celle utilisée par ARM, Apple, Samsung et bien d'autres dans le monde mobile. Maintenant, parlons de ce qui va suivre, et c'est compliqué.
Il faut le répéter : le 10 nm d'Intel n'est pas efficace. Actuellement, les puces en 10 nm tournent à des fréquences significativement plus faibles qu'en 14 nm, et c'est un problème. De façon plus concrète, Sunny Cove (l'architecture des Ice Lake mobiles) ne devrait pas être proposée dans les machines de bureau.
Dans le meilleur des cas, Intel proposera en 2020 la gamme Tiger Lake, avec une nouvelle architecture (Willow Cove) qui amènera le PCI-Express 4.0, une nouvelle génération de GPU (Xe) et quelques améliorations sur la mémoire cache. Les puces Tiger Lake viseront les appareils mobiles mais aussi les ordinateurs de bureau, avec une gravure en 10 nm. En parallèle, un plan de secours en 14 nm (encore) existe : Rocket Lake. Et pour la suite, il y a aussi Alder Lake. Cette famille de CPU, attendue en 2021, ne sera peut-être d'ailleurs pas présente dans les Mac…

Le probable abandon par Apple
Parlons d'Apple, qui utilise les processeurs d'Intel depuis une quinzaine d'années. Assez logiquement, les problèmes du fondeur ont un impact direct sur les Mac : les portables évoluent assez peu, les machines de bureau encore moins. Le Mac mini coincé sur des puces de 8e génération montre bien le problème : la 9e et la 10e n'apportent pas de gains vraiment intéressants en dehors de quelques MHz.
La question qui se pose reste la même que dans la partie sur AMD : pourquoi rester chez Intel ? Sûrement d'abord parce qu'Intel est un bon client pour Apple (ou Apple un bon client pour Intel). Apple n'a pas souffert publiquement de pénurie, Intel propose de temps en temps des puces un peu modifiées pour les machines ornées d'une pomme (c'est le cas des récents MacBook Air, dotés d'un CPU plus compact) et même si les performances évoluent peu, elles restent globalement très bonnes.
AMD fournit une alternative tout à fait valable en 2020, mais passer chez le concurrent n'amènerait pas une vraie révolution. De plus, et cet argument est tout aussi valable que pour un passage chez AMD, les rumeurs sur une transition vers des puces ARM sont récurrentes.
Abandonner un partenaire de longue date pour un autre alors même que le x86 (au sens large) pourrait disparaître des Mac semble étonnant. Nous allons nous arrêter ici pour vous donner rendez-vous dans une troisième partie qui sera dédiée aux puces ARM et aux choix possibles d'Apple. Mais la chose à retenir de ce long article, c'est que l'absence de mise à jour de certains Mac et l'évolution assez faible des performances ces dernières années vient de mauvais choix d'Intel, qui n'avait pas anticipé le retour d'AMD ni la montée en puissance des CPU de type ARM…
-
Au début des années 2000, Intel a suivi une voie un peu particulière avec le Pentium 4. L'architecture était optimisée pour une haute fréquence, au détriment de l'efficacité. Malheureusement, Intel a foncé dans un mur : la consommation, qui a limité la fréquence en pratique. ↩
-
Architectures et noms de code désignent parfois la même chose. Skylake fait référence autant à la sixième génération de Core qu'à l'architecture, par exemple. ↩
Très intéressant merci. Hâte de lire l article sur l’intégration probable des puces arm sur Mac.
Super intéressant en effet !
« Pour bien comprendre : les CPU sont fabriqués sur de grands disques de silicium (les wafers) et le rendement est calculé en prenant le nombre de processeurs gravés divisé par le nombre de processeurs utilisables à la fin. Le but, évidemment, est d'avoir un rendement élevé, proche de 100 %. »
N’est ce pas plutôt le nombre de processeurs utilisables divisé par le nombre de processeurs gravés ?
Article très intéressant sinon 🙃
Article vraiment intéressant !
Vivement le prochain
Article très intéressant.
Néanmoins, un dessin valant parfois mieux qu’un long discours, faire un schéma/tableau récapitulatif des architectures et « avancées » Intel ces dernières années aurait pu aider à mieux comprendre 🙂
@ric_anto
Ou pas. Je crois comprendre qu’Intel essaye de noyer le poisson avec ses différents Lake !
🥴
LES LAKE DU CONNEMARA
... whow putain 🤪
sinon bravo pour l'article en effet !
Super article !
Je serai curieux de savoir pourquoi Intel galère autant sur la finisse de gravure quand les autres battent des records
@Hideyasu
J’ai cru comprendre que la façon de mesurer la taille des pistes prenait un bon petit facteur deux en fonction du fabricant, à la faveur d’Intel.
À vérifier néanmoins, il ne s’agit peut être que d’un écran de fumée consistant à essayer de nous cacher la noyade des feuilles de route d’Intel dans les différents Lake, et pas que du Connemara, mais aussi d’Écosse, avec de vrais faux serpents de mer mythique dedans !
« Mais la chose à retenir de ce long article, c'est que l'absence de mise à jour de certains Mac et l'évolution assez faible des performances ces dernières années vient de mauvais choix d'Intel, qui s’est dite qu’elle pouvait vendre tranquille le même produit repackagé pendant 5 ans et s’est faite griller par la concurrence... »
Je me suis permis de corriger.
@Pyr0h
Très juste.
Et comme le repackaging est aussi une vraie institution dans le domaine des cartes graphiques, qu’elles soient de chez Nvidia ou de chez AMD, les machines de bureau se retrouvent avec la double peine : rien de neuf niveau processeur, rien de neuf non plus niveau carte graphique !
@pim
Exactement. Du matériel correct d'il y a 5 ans donne encore pleine satisfaction ce qui n'était pas vrai il y a 15 ans de ça.
Les choses n'évoluent plus de la même manière et je ne pense pas qu'un hypothétique passage aux processeurs ARM soit si révolutionnaire en terme de gain de performances. L'efficacité énergétique peut grandement s'améliorer cela dit.
Moi je trouve ça pas plus mal, les machines ont une durée de vie supérieure et il n'est pas nécessaire de les remplacer tous les 3 ans
D'où mes coup de gueule ici sur les discours concernant les performances soit-disant "nulles" des macs, des discours parfois extrémistes, que cela concerne le CPU ou le GPU. En vrai, la stagnation des CPU relativise les choses
En vrai les machines d'il y a 5 ans sont encore très capables, et en vrai un PC équivalent a un Mac n'est au fond pas plus rapide, ou du moins pas significativement
Après il y a l'histoire du Mac Pro mais c'est une autre histoire
MBA, MBP, iMac et iMac pro sont d'excellentes machines, pour peu que l'on choisisse les bonnes options ( pas de HDD, pas de fusion drive, assez de RAM, etc)
@pocketalex
"les machines ont une durée de vie supérieure"
Je ne crois pas. Ou plus exactement, les Wintel n’ont pas une durée de vie inférieure, lorsque la construction est de qualité, et des Wintel bien construits ne sont pas rares. L’entrée de gamme en plastique façon fourchettes jetables est en effet moins durable.
80386 et 80486 tout une époque ! Nostalgie...
Très bon article, super documenté, merci !.
@Azurea
Toute une époque oui, mais perso je n’ai pas la nostalgie des x86 :)
À l’époque mes héros c’était m68k, puis les processeurs RISC (mââtin, quel pipeline !)
Super article merci.
Et la loi de Moore ? 🤣
@TheRV
Moore il a été enterré par Intel depuis bien longtemps 😂
@Hideyasu
Une loi basée sur une suite géométrique de raison 2 ne peut que finir par manger tous les électrons de l’Univers connu ou par disparaître...
A priori, l’Univers est toujours là ! 😅
Super article.
Il manque néanmoins un point : pourquoi dès le début l’architecture d’Intel 4040 et x86 est mauvaise, et pourquoi l’architecture Risk des processeurs ARM, Motorola et PowerPC est bonne ? Et comment Intel a réussit avec une mauvaise architecture, en intégrant peu à peu les bonnes idées de la bonne architecture ?
C’est un thème récurrent dans la technologie : ce n’est pas toujours le meilleur qui gagne, VHS contre betacam en témoigne.
Si maintenant le meilleur perdant regagne une manche contre le pire gagnant, que faut-il en penser ? C’est bonnet blanc et blanc bonnet, ils vont tous se fracasser contre le mur quantique, à la fin. Personne ne pourra descendre en dessous de 3 nm, c’est la fin de la loi de Moore (le fameux directeur d’Intel).
Sauf si Intel essaye de jouer la montre et a une solution pour sortir de l’impasse du silicium. Et qu’ils ont toutes leurs ressources sur ce projet, en secret. Un processeur utilisant des photons au lieu d’électrons, ne chauffant pas, et permettant de continuer à descendre encore plus bas dans la finesse de gravure. C’est une hypothèse optimiste, l’hypothèse pessimiste étant de dire qu’ils n’ont aucune solution et qu’ils savent que c’est la fin !
@pim
En tout ca ne me fait pas plus aimer ceux qui crachait sur le PowerPC en 2006.
Ca fait 15 ans qu’Intel stagne après un gros saut entre le Pentium IV et le Core, mais pendant ce temps le Power des serveurs AIX sur lesquels je bosse a monstrueusement évolué lui ! Je n’ai aucun doute qu’un dérivé PowerPC de ces processeurs power 7/8/9 aurait été très puissant lui aussi ...
Tous ça pour une pure question de marge, on prive le macuser du meilleur de la techno ... a voir si ça change avec ARM ...
@melaure
"Tous ça pour une pure question de marge, on prive le macuser du meilleur de la techno .."
Et fait, c’est LA question de tout commerce…
@melaure
Le passage a ARM est aussi un pari risqué, car après toutes ces années de progression, ce design est-il ou pas arrivé au moment de l’essouflement ? Le A13 n’est pas tellement plus puissant que l’A11 ... il va falloir vraiment que la suite monte plus sérieusement en perf.
Le ARM des iphone et iPad est taillé pour les usages Smartphone et tablettes
A quoi bon un A14 qui serait 2x plus rapide qu'un A13 ? Aucun intérêt, tout tourne déjà a fond sur iPad 7, l'iPad de base...
Une fois les Axx dans un Mac, la il y aura un intérêt, et là tu aura des surprises
@pim
C’est pas tant qu’elle était mauvaise, dans les années 80, tous les procs étaient des CISC.
Bon, la gestion de la mémoire par des segments était, de mon point de vue, vraiment pourrie, mais c’est pas si grave.
Ce qui a rendu le x86 complexe au fil des années, c’est la rétro-compatibilité.
Certes, coté pile c’est durable (un programme DOS a pu tourner sur des générations de cpu sans modification), côté face, ça oblitère une partie des gain d’innovations disruptives, comme les architectures RISC apparues dans les 90’.
Sans compter que 95% des PCs de l’époque tournent sous Dos ou Windows. Donc la rétro compatibilité devenait quasi obligatoire pour qu’Intel ne se coupe pas de son parc de clients. Le couple Wintel n’a pas le même ADN qu’Apple, qui n’hésite pas à réaliser des transitions perçues comme risquées (68k/PPC/X86/x64).
Intel était donc condamné à garder ses vieilles instructions x86, plus toutes celles rajoutées en cours de route (vous avez dit MMX?), pour que les programmes tournent toujours.
Sur le CPU, il a bien fallu améliorer l’architecture, ce qui voulait dire passer en RISC. Aujourd’hui, un x86, c’est un processeur RISC avec un traducteur CISC autour. Tu m’étonnes que le TDP crève les plafonds.
Il paraît que ça va mieux avec les instructions x64, mais... les CPU doivent toujours être capables de faire tourner du x86, Win32 oblige...
Perso, je regrette les PowerPC pour leur beauté intérieure, mais Apple a eu raison de changer, la roadmap d’IBM (seul survivant de l’aventure PPC) est clairement axée grosse artillerie (power8, ça RoX!), aux antipodes des besoins d’Apple.
Avec ARM, on renoue avec des chouettes designs, quand ça arrivera sur Mac ce sera casse-pieds pour le dual boot, mais on fermera la parenthèse Intel.
A+
@sebasto72
Wow merci pour ce commentaire.
@iftwst
À votre service 🙂
@sebasto72
Superbe, merci !
Excellent article de synthèse qui réussi a être détaillé sans tomber dans des détails trop techniques (auquel je ne comprendrais rien de toute façon 😬)
Le cas Intel me fait penser à toutes les grosses boites où j’ai bossé ou la plupart des promotions se font moins sur les connaissances techniques que sur la fourberie et le bullshit en politique interne. Quand les derniers à avoir une vision produit quittent le navire, on voit vraiment le vide sidéral des bullshitters mais c’est trop tard.
En espérant qu’Apple ne finisse pas comme ça...
Dois je comprendre de cet article que rien ne sert d’attendre les Intel 10 pour le Mac mini ?
du coup la promo du Mac mini hier était super intéressante ?
@guyotlo
Si le possible gain en gpu.
J’ai dit possible hein si la nouvelle architecture est adoptée.
@guyotlo
Je me pose la même question. J’ai gardé mon MacBook Pro 2010 jusqu’à ce jour, même s’il rame sévère. Si j’achète un Mac de bureau aujourd’hui, j’aimerai aussi le garder 10 ans.Mais est-ce qu’il sera compatible avec les futurs Mac ARM ?
J’avais fait l’erreur d’acheter le Power Mac G5 à l’époque. Je ne veux plus refaire ce genre d’erreur !
Super article, sinon ! J’attends avec impatience la 3ème partie ! 💪
Merci pour cet article fort intéressant.
Vivement la suite avec l’ARM (et les problèmes de transition / rupture que ça risque d’amener).
Personnellement, je regrette les puces PowerPC et quand je vois le dernier Mac Mini je regrette encore plus les PowerPC qui sur certaines fonctions était plus rapide que les puces d'Intel cela se voit à l'affichage sur les fenêtres et je trouve que cela rame vraiment quand il faut attendre là où avec les PowerPC cela semblait plus rapide. Ajouter des coeurs CISC oblige à exécuter toutes les instructions avant de faire repartir le cycle et chez des processeurs RISC tout se faisait en même temps car moins d'instructions mais plus d'activité ! Espérons que aller vers les ARM sera plus profitable au Mac qui est gourmand en process et pas en mémoire ! On a déjà vu cela !
Effectivement ouvrir des fenêtres, les déplacer, déplacer des fichiers, renommer des fichiers... Tout cela est bien plus lent que sous Maverick
Pas sûr que ce soit un problème de CPU, plutôt de driver disque et de codage du Finder
Mais c'est plus lent et plus lourd qu'avant oui
D'où cette impression que le PC sont plus rapide, la gestion des fenêtres de Windows est quasi instantanée, ça donne un sentiment de nervosité. Un faux sentiment, mais il est là
Très intéressant, merci. Je comprend mieux maintenant pourquoi la gamme des MacBooks n'a pas beaucoup évoluée.
L’article se termine par la montée en puissance des puces ARM.
Mais j’ai l’impression qu’ARM partait de plus loin. Depuis des années, Intel stagne, ARM progresse. Mais ARM ne va-t’elle pas arriver comme Intel à un plateau ?
La sortie du dernier iPad Pro qui n’a bénéficié qu’un petit Z sur son A12, rejoint un peu le Mac Mini qui en 2 ans, n’a pas non plus changé de processeur...
@BingoBob
Effectivement, au niveau gravure, tout le monde va se prendre un mur. Et du coup, avoir la bonne architecture va être plus que jamais essentiel ! Abandonner le CiSC simulé pour du RISC pur, et abandonner toutes la rétro compatibilité x86 et MMX pourrait faire une sacrée différence.
Un autre point pose actuellement problème à Intel : les fameuses failles spectre et compagnie. Toutes les optimisations faites depuis vingt ans sont en train d’être abandonnées une à une. Sans ces optimisations, tous les processeurs Intel depuis se prennent une réduction de 30 % de leur puissance. Encore un autre argument qui montre qu’il faut repartir de zéro.
On parle beaucoup d'un hypothétique Mac Arm, mais on n'a comme référence, actuellement, que les processeurs Axxx des Iphone/Ipad, qui sont tout de même des machines destinées à fonctionner sur batterie, et très petites. Si on image une machine avec le gabarit d'un mac mini par exemple, ou un Imac, on peut imaginer un processeur plus gros, voire plusieurs pour faire tourner la machine, adapté justement à un pc. Quand on sait que l'ipad pro se compare à des pc portables, on peut imaginer ce que donnerai un processeur, voire plusieurs, Axxx sur une carte mère plus grosse, avec un GPU adapté etc... Qui nous dit même que ces processeurs n'intégreront pas les instructions x86 pour émuler correcter les logiciels non compatibles, ou même windows. Qui nous dit même, que windows ne sera pas compatible avec ces mac ? Ca serait dans l'intérêt de Microsoft de rendre compatible ces machines pour vendre des licences Offices et Windows. Bref, on verra bien, mais je pense qu'au delà de tous nos fantasmes, on risque d'être surpris quand ça arrivera. Qui avait prévu le switch Intel aussi rapidement par exemple ?
Je vois par exemple les Axxx actuels comme étant les processeurs de la gamme Atom qu'on voyait dans certains pc lowcost il y a une dizaine d'année. Même si le A13 est déjà bien puissant, mais il n'est exploité que dans des matériels riquiqui avec la contrainte de l'autonomie etc....
@Boboss29
👍🏻
Qualcomm a bossé avec MS pour sortir un proc ARM spécifique pour Windows...et sans compter, vu le prix du produit final, la Surface Pro X.
Avec un résultat assez...moyen. Même pour les apps natives.
Alors on peut toujours se rassurer et dire que c’est la faute de Windows, mais bon Windows sur Arm existe depuis longtemps.
J’ai des doutes que Apple puisse faire des miracles avec MacOs sur Arm.
Il semblerait même ( je mets la conditionnel parce que j’ai vu l’info pas la preuve ) que la Surface Go 2 avec le intel m3 soit plus rapide que la Surface X.
@Boboss29
Il y a beaucoup d’hypothèses.
À ce stade on ne sait pas grand chose.
Mais on peut jeter un coup d’œil sur la trajectoire de macOS depuis quelques années. La météo n’est plus à des usages lourds depuis longtemps, sauf quelques niches dans des niches. La mobilité grand public est très dominante dans l’orientation d’Apple.
Donc même si le prix à payer est un niveau de performances moindre et pas de dual boot, si Apple parvient à proposer des portables macOS ayant 20 heures d’autonomie et dotés de la riche logiteque iOS plus ou moins bancalement adaptée à macOS en plus d’applications macOS recompilées telles que Office, FinalCut et d’autres... ma foi...
Rien n’interdit de conserver les desktop avec des processeurs desktop par ailleurs, pour les niches de niches, même si ça implique d’avoir des applications compilées pour deux architectures. La mécanique de code intermédiaire recompilé en natif par l’AppStore est déjà en place pour iOS, pourquoi pas pour macOS également ?
Je trouverais ça intéressant pour ma part. Il y aurait un vrai truc unique et particulier à ces machines et ce constructeur, à part un macOS vieillissant et délaissé.
@fte
Assez d’accord.
La question qui se pose c’est Apple va elle en plus macOs, iPad Os, watch Os, Tv Os, et iOs se farcir en plus un macOs arm...sans compter que les gens vont vouloir utiliser des anciennes app sur un mac Os arm...MS a essayé avec le résultat qu’on connait.
Certes les utilisateurs de mac Os sont 10 fois moins nombreux que Windows, et dans cette petite frange, les utilisateurs de MacOs arm, seraient encore une plus petite sous catégorie...néanmoins ça ne les rends pas spécialement technophiles.
L’autre fantasme c’est l’autonomie, est ce que 20 h vont vraiment être un argument ultime..aujourd’hui on arrive avec un macbook air à une autonomie d’une journée de travail sans chargeur, les gens vont ils faire les concessions que va demander ARM juste parce qu’ils ont la flemme de recharger la nuit ?
(Les résultats sur Windows sont assez moyens, on s’aperçoit qu’un Os desktop c’est pas un Os mobile et que si on tire sur un proc ARM et bien ça consomme aussi, que ce soit la Surface pro X ou les machines de Lenovo ou le Samsung galaxy book qui est plus près des 11 h que des 20)
@rolmeyer
"L’autre fantasme c’est l’autonomie"
Oui et non. Peut-être. :)
Mon ThinkPad peut tenir entre 2 heures et 12 heures. Pleine puissance, luminosité, et Photoshop et Lightroom, il s’écroule. Ce n’est pas son usage premier. Économie d’énergie max, luminosité abaissée, office, notion, evernote, bref, productivité machin, il tient la journée.
Il y a cependant une très grande différence entre l’autonomie de mon ThinkPad en réglage économie et l’autonomie de mon iPad. Je sais que l’iPad va tenir la journée. Le ThinkPad, je dois gérer, je dois y penser. Battery anxiety...
C’est absolument un des arguments principaux qui a pesé dans la balance pour mon choix d’un iPad.
Peut-être que c’est un fantasme.
Mais je crois qu’Apple a plus de chance de produire un notebook arm avec une autonomie supérieure et avec une logiteque qui suive que Microsoft, du moins dans les une ou deux années qui viennent.
J’ai en fait plus de facilité à envisager un Mac arm peu puissant mais avec une grande autonomie qu’un Mac arm rivalisant avec un portable Intel (ou mieux, AMD) en terme de puissance. arm vraiment puissant sans exploser la consommation, ça doit encore être démontré.
C’est la seule chose qui me ramènerait vers macOS actuellement...
@fte
Ton exemple est frappant mais va rester anecdotique. Tu crois vraiment que les acheteurs de Thinkpad vont se précipiter sur un macbook arm ?
Et lightroom, et photoshop sur arm, on va attendre, et longtemps.
Et si c’est en émulation ça va tirer tellement sur la batterie qu’on va perdre tout bénéfice d’un augmentation de l’autonomie.
Un mec avec un macbook air ou macbook pro 2 ports TB qui a aujourd’hui 9 heures d’autonomie va pas acheter un macbook arm pour avoir 12 ou 14 heures.
Donc qu’on en ait envie, oui, (et j’en fait partie ) que ce soit dans les priorités d’Apple pour les 3 personnes qui veulent ça j’ai des doutes. ( d’où le mot fantasme)
Quand à l’iPad son autonomie est bonne mais quand tu commence à taper dedans on arrive bien vite à une autonomie de Laptop intel.
J’ai un iPad pro 12.9 2018, en tablette j’avais une autonomie de...tablette, depuis que j’ai le clavier à trackpad, elle a fondu comme neige au soleil, tout simplement parce que je fais des tâches plus lourdes et plus nombreuses, et je m’approche de l’autonomie de mon macbook air.
@rolmeyer
"Tu crois vraiment que les acheteurs de Thinkpad vont se précipiter sur un macbook arm ?"
Bien entendu que non. Je pensais à l’actuelle base de clientèle Mac qui reste... et à quelques switchers potentiels (dont moi) en effet anecdotiques. Et surtout à de potentiels switchers d’iPad vers un Mac arm.
Et plus généralement je pensais à l’attractivité du Mac auquel il ne reste plus tant de caractéristiques uniques (les fameux USP) à part un macOS délaissé par Apple.
@rolmeyer
« Un mec avec un macbook air ou macbook pro 2 ports TB qui a aujourd’hui 9 heures d’autonomie va pas acheter un macbook arm pour avoir 12 ou 14 heures. » c’est quoi cette remarque ?😂🤣 tout le monde veut plus d’autonomie donc ce sera le bienvenue.
« Quand à l’iPad son autonomie est bonne mais quand tu commence à taper dedans on arrive bien vite à une autonomie de Laptop intel.
J’ai un iPad pro 12.9 2018, en tablette j’avais une autonomie de...tablette, depuis que j’ai le clavier à trackpad, elle a fondu comme neige au soleil, tout simplement parce que je fais des tâches plus lourdes et plus nombreuses, et je m’approche de l’autonomie de mon macbook air. » cela va être corriger avec une MAJ😉
Apple aurait du rester sur Power PC
et
HP n'aurais jamais du abandonner PA-Risc
La conclusion résume bien la situation: Intel n’a pas vu les ARM arriver ni AMD revenir
@corben
Oui enfin ils ont aussi perdu de temps, de l’argent et des ressources à vouloir faire un processeur mobile. Cette obsession de faire un proc pour les tablettes et la téléphonie s’étant soldé par un échec cuisant, les autres ont eu le temps de progresser.
(Depuis 2010 on nous promettait un téléphone sous Intel puis une tablette pour finir avec Intel abandonnant officiellement en 2016 avec 10.000 suppression d’emplois )
Pages