Un analyste prédit 30 % du marché des PC pour ARM en 2026 (et ça semble risible)

Pierre Dandumont |

En 2026, 30 % des PC seraient basés sur des processeurs ARM, selon Canalys cité par Digitimes. La part de marché serait même de 50 % dans le monde des serveurs. Au premier abord, ce genre d'affirmation peut faire rire pour ceux qui connaissent la situation dans les PC ARM1; ou elle peut être interprétée d'une façon simple : « Un analyste pense qu'Apple pourrait atteindre 30 % de marché d'ici 2026 ». Mais c'est un peu plus compliqué que ça.

Apple, les Chromebooks et Qualcomm

Premier point, la part de marché des « PC » à base d'ARM est déjà de l'ordre de 13 à 15 % (selon les différents analystes), en prenant en compte qu'un « PC » est un ordinateur personnel au sens assez large. La liste comprend donc les Mac (avec une gamme très majoritairement passée sur le jeu d'instructions d'ARM) mais aussi les Chromebooks (assez courants dans le monde de l'éducation et parfois équipés de puces ARM) et les (rares) véritables PC à base d'ARM, c'est-à-dire ceux qui fonctionnent sous Windows 10 ou 11.

Cette part de marché augmente régulièrement : elle était de moins de 2 % au second trimestre 2020, d'environ 7 % en 2021 (au même trimestre) et de 9,5 % un an plus tard. Mercury Research, qui fournit les chiffres, estime même une part de marché de 13,1 % au troisième trimestre 2022.

La Surface Pro 9, un des rares PC ARM modernes.

Est-ce que cette augmentation des parts de marché est suffisante pour atteindre les 30 % imaginés ? Peut-être pas, mais le monde devrait tout de même bouger assez fortement dans le futur. En dehors des évolutions des puces Apple, Qualcomm devrait (enfin) proposer ses puces basées sur les travaux de Nuvia, et Mediatek pourrait aussi peut-être offrir des solutions compatibles avec Windows pour ARM.

Actuellement, la raison principale des faibles parts de marché vient de l'orientation choisie par Microsoft : Windows 10 pour ARM existe depuis 2017 (et dans un sens, le Windows RT de 2012 peut être considéré comme son ancêtre), mais les puces sont singulièrement lentes depuis cette date. Sur les cinq dernières années, Qualcomm (qui règne sans partage dans ce domaine, probablement grâce à un contrat d'exclusivité) n'a pratiquement intégré que des processeurs dérivés directement des Snapdragon de smartphones — parfois, ils étaient même identiques. Il a fallu attendre 2022 et le Snapdragon 8cx Gen 3 vu dans la récente Surface Pro 9 pour avoir une puce réellement pensée pour les PC, avec une puissance de calcul plus ou moins correcte (moins que plus, d'ailleurs).

Surface Pro 9 avec puce ARM : les performances, c

Surface Pro 9 avec puce ARM : les performances, c'est toujours pas ça

Le marché des serveurs est très différent

Les parts de marché dans le monde des serveurs sont pour le moment assez faibles (de l'ordre de 7 %) mais elles pourraient augmenter dans le futur. Le marché en question est en effet très différent de celui des PC, avec des constructeurs comme Ampere, Amazon (via AWS) ou Huawei.

Les contraintes ne sont pas du tout les mêmes que dans le grand public et les puces ARM ont des avantages certains et des cartes (graphiques ?) à jouer. Certains systèmes sur puce à base d'ARM contiennent notamment beaucoup plus de cœurs que les solutions à base de x86 (on trouve des puces avec 128 cœurs, quand AMD se limite à 96 cœurs et Intel à 60), un point important dans certains domaines. En effet, même si la puissance de chaque cœur est en dessous des meilleures puces x86 (et cette différence se réduit avec le temps), il est parfois plus intéressant d'avoir plus de cœurs dans un seul serveur pour des raisons pratiques.

Cette migration n'est pas possible pour toutes les tâches (certaines dépendent du x86) et AMD et Intel ne vont évidemment pas se laisser faire sans réagir — AMD va proposer une variante avec plus de cœurs de ses derniers processeurs en date —, mais les parts de marchés des puces à base d'ARM (et peut-être de RISC-V, même si l'écosystème reste assez petit actuellement) risquent bien d'augmenter de façon importante. Il semble d'ailleurs étonnant qu'Apple ne propose pas encore de serveurs équipés de puces maison, du moins pas publiquement.

Dans tous les cas, les valeurs annoncées par Steve Brazier de chez Canalys semblent tout de même très optimistes mais pas totalement irréalistes… si tout se passe bien pour les différentes sociétés qui développent des puces ARM.


  1. Le simple fait d'avoir utilisé un PC sous Windows 10 à base d'ARM devrait vous faire rire, tant l'impression de retourner 10 ans en arrière est forte.  ↩︎


Tags
#ARM
avatar Argeuh | 

Intéressant !

Et la patte de Dandu est vite reconnaissable :)

avatar iPop | 

Moi ce que je retiens de l’histoire, c’est que ce que l’on définissait vulgairement comme « processeur de mobile » devient un standard pour tous les PC dit « Proooofessionnels ». 😁

avatar BeePotato | 

@ iPop : « Moi ce que je retiens de l’histoire, c’est que ce que l’on définissait vulgairement comme « processeur de mobile » devient un standard pour tous les PC dit « Proooofessionnels ». 😁 »

Notons toutefois que bien avant d’être vues comme processeurs de mobiles (et de PDA avant ça), ces puces étaient initialement vues comme CPU d’ordinateurs personnels dont les performances faisaient rêver pas mal de monde. Mais c’était il y a… quelque temps. 😉

avatar byte_order | 

@iPop

De la même manière que ce que IBM appelait elle-même vulgairement un "micro" ordinateur est devenu en 20 ans l'architecture d'une énorme majorité d'ordinateurs.
Et pourtant le poussif 8088 était complètement à la ramasse en terme de puissance de calcul par rapport à ce que l'on trouvait à l'époque dans les ordinateurs "professionnels", c.a.d. à l'époque les mainframes.

Ensuite, attention, ARM n'est pas une architecture, c'est un jeu d'instruction d'un processeur. Tout le reste, les bus, les interfaces d'interopérabilité avec d'autres composants pourtant essentiel de toute plateforme informatique, ne sont PAS standardisés par ARM, ce qui rend non interchangeable une machine à base de CPU ARM avec une autre. Il faut adapter chaque OS à chaque architecture de machine utilisant un CPU ARM, contrairement à l'architecture Intel, qui elle est allée bien plus loin que le seul jeu d'instruction du CPU, et où chaque machine partage donc la même architecture, ou du moins est compatible avec elle.

Que l'architecture interne des CPU ARM, qui est celle la plus utilisée dans le monde depuis l'explosion des smartphones et autres trucs ultra portables fasse sont chemin partout c'est logique, mais cela n'en fait pas pour autant un standard de "machine".

Le succès de l'architecture Intel repose non pas sur la qualité de son jeu d'instruction mais sur la standardisation de toutes les interfaces avec le CPU, sans royalties, qui a permis à tout un tas de constructeurs de proposer du matériel qui s'interface avec.

On en est pas là, loin de là, côté plateformes ARM.

Notez le S à "plateformes ARM".

avatar iPop | 

@byte_order

« Que l'architecture interne des CPU ARM, qui est celle la plus utilisée dans le monde depuis l'explosion des smartphones et autres trucs ultra portables fasse sont chemin partout c'est logique, mais cela n'en fait pas pour autant un standard de "machine".

C’est justement ce standard (INTEL) qui a détruit IBM. Je pense qu’Apple recherche plutôt l’exclusivité, des machines propres à son nom.

avatar byte_order | 

@iPop

> C’est justement ce standard (INTEL) qui a détruit IBM

Pas uniquement, non. La demande en mainframes était forcément limitée aux seules entreprises en ayant les moyens, tandis que la demande pour des ordinateurs personnels, elles, ne pouvaient qu'exploser.

On l'oublie peut être, mais avant que le standard PC ne vienne à dominer ce marcher, y'a eu une période d'ordinateurs personnels 8 et 16 bits, chacun bien proprio, chacun se limitant pour l'essentiel a n'être interopérable avec rien d'autre que ce que son fabricant proposait en complement. Les Commodores, les Amiga, les Atari, les Macs, les Oric, etc. Y'a bien eu une tentative de standardisation venue de l'asie, via les ordinateurs dit MSX, compatibles entre eux, mais au final c'est bien la standardisation massive autour de la plateforme Intel qui a renverser le marché, parce qu'il a su répondre à la fois à la demande des entreprises en terme de postes informatiques autonomes et la demande des particuliers, grace à la baisse des prix que le standardisation et la libre concurrence qu'elle a permise.

> Je pense qu’Apple recherche plutôt l’exclusivité, des machines propres à son nom.

Oui.

Mais, justement, une partie des utilisateurs, entreprises comme particuliers, ne souhaitent pas cette exclusivité. Les entreprises détestent dépendrent d'un seul fournisseur en général.
Les particuliers, eux, n'ont pas tous les moyens de s'offrir l'accès à cette offre "exclusive", que Apple fait payer très largement. Quand bien même ils en auraient envie, ce qui n'est pas forcément le cas de tout le monde.

Attention, certes le marché de l'ordinateur personnel est dominé par le marché des ordinateurs portables, et là la sobriété énergétique est très bienvenue, mais il reste tout un autre pan où ce n'est pas le critère soit majeur soit dominant. La compatibilité avec des equipements et logiciels tiers, voir maisons, l'existence de plusieurs fournisseurs différents sont là des critères qui comptent aussi.

Je pense que les ordinateurs personnels basculeront massivement sur puce ARM quand y'aura un standard de plateforme à base de puce ARM, et non plus une quantité, qui se compte sur les doigts d'une main, de plateformes toutes propriétaires.

avatar iPop | 

@byte_order

👍

avatar BeePotato | 

@ byte_order : « On l'oublie peut être, mais avant que le standard PC ne vienne à dominer ce marcher, y'a eu une période d'ordinateurs personnels 8 et 16 bits, chacun bien proprio, chacun se limitant pour l'essentiel a n'être interopérable avec rien d'autre que ce que son fabricant proposait en complement. Les Commodores, les Amiga, les Atari, les Macs, les Oric, etc. »

En effet. N’oublions pas d’inclure l’IBM PC dans cette liste, car il était juste une machine de plus non interopérable avec celles déjà présentes.
Mais ça n’a pas duré, quand d’autres ont réussi à profiter de l’aubaine d’être en face à la fois d’une machine connaissant du succès grâce au nom d’IBM et d’une machine facilement copiable du fait de choix de conception hasardeux. Sans ça, je me demande comment les choses auraient évolué et à quoi ressemblerait le paysage informatique.

avatar Glop0606 | 

Je pense que c'est plausible du fait que les puces ARM sont et seront très performantes et qu'elles permettent d'avoir des Laptops légers et avec une très grande autonomie. Enfin et surtout la dématérialisation (cloud) fait que les gros calculs se font hors PC. Quand j'étais plus jeune, je changais de matos souvent car pas d'autres choix si j voulais de la puissance. Aujourd'hui et surtout demain, quand tu vois la qualité des jeux sur xcloud, la connectivité (Wifi7/5G), l'autonomie, le confort (chauffe/bruit), et la consommation seront pour beaucoup des critères plus déterminants que la puissance brute, ce qui est exactement ce que propose ARM.
PS: En caricaturant, on pourrait rapprocher ce modèle d'informatique de l'époque du minitel ;)
PS2: Windows est quand même à la traîne sur le développement ARM... peut-être Windows 12 sera le vrai premier Windows ARM comme le fût Big Blue sur Mac?

avatar byte_order | 

@Glop0606

La consommation pour faire la même chose via du Cloud Gaming que ce que vous pouvez/pourriez faire sur votre propre ordinateur est inévitablement supérieure :
- la consommation des équipements réseau, rendus nécessaires ainsi, s'ajoute, et ils sont nombreux entre chez vous et le ou les datacenters sollicités
- les serveurs des fermes de Cloud Gaming consomment toujours quelque chose, même lorsqu'il n'y a aucun utilisateur à un instant T, là ou votre ordinateur, lui, est éteint.

On est typiquement dans du "loin des yeux loin du coeur" dans cette vision que le Cloud consomme moins qu'en mode stand alone. C'est faux, c'est le contraire, mais comme on ne voit plus directement le prix de cette consommation, on croit qu'elle disparait. Elle est intégrée dans le cout d'accès aux services en Cloud, et vu l'augmentation de l'énergie, ces services vont inévitablement augmentés de tarif.

avatar vince29 | 

> - les serveurs des fermes de Cloud Gaming consomment toujours quelque chose, même lorsqu'il n'y a aucun utilisateur à un instant T, là ou votre ordinateur, lui, est éteint.

Il n'y a jamais "aucun utilisateur" sur des fermes de calcul. Les processeurs de serveur sont hautement rentabilisés parce qu'ils tournent toujours au max de leur capacité alors que chez les particuliers ils tournent souvent à quelques % de leur capacités et gaspillent de l'électricité à chauffer pour rien. De plus les "alims" de datacenter sont certainement plus efficaces que les alims noname de bien des pcs...

avatar byte_order | 

@vince29
> Il n'y a jamais "aucun utilisateur"

Propablement pas, oui, par contre cela varie, alors que sur un PC personnel c'est soit 1 utilisateur soit c'est éteint.
Par ailleurs, c'est surtout les GPUs la ressource essentielle, c'est pas par hasard si ce sont désormais ce qui consomme le plus dans un ordinateur orienté jeu vidéo. Et probablement aussi dans un datacenter de cloud gaming.
Ensuite, quand un joueur joue sur son PC, non, y'a pas quelques % de consommés, y'a autant de consommé, car au final il faut bien que le jeu vidéo soit "produit", et donc que la ressource CPU et GPU nécessaire à cette production soit consommée, qu'elle le soit localement ou dans un serveur distant ne change rien sur ce point.

Quand aux alims de datacenter vs ceux des alims de PC, d'une, vous faites un biais en partant du principe que la majorité des gens qui jouent sur PC le font avec des PC "noname", avec des alims de base, ce qui est quasi strictement incompatible pourtant avec l'usage des GPU de forte puissance (y'a pas franchement pas d'alim "noname" qui propose les 650/750W minimum pour les GPUs actuels).

Mais vous oubliez aussi de parler des alims des différents éléments réseaux impliqués dans l'approche cloud. Vu le form factor de ce type d'équipements, et c'est vrai aussi sur les serveurs non customisés d'ailleurs, les alims sont compactes et rarement avec de bon rendement, l'aspect étant plutôt l'endurance et la capacité à tenir le pic de charge, la marge est donc souvent bien trop grande avec les besoins.

Pour rappel, les tenants du cloud, gaming ou pas, ne poussent pas cette approche par tendance écologiste. Ils poussent surtout et avant tout un modèle de location vs l'achat d'une machine, d'un usage. Parce que la marge est supérieure dans la location vs la vente.
Et, ici, en plus, le client ne peut pas changer facilement de "loueur" sans devoir perdre pas mal de ses dépenses passées (migration d'environnement compliqué, perte des parties de jeu sauvegardées en changeant de cremerie etc), ce qui le rend donc bien plus captif, moins capable de partir quand bon lui semble à la concurrence.

avatar Furious Angel | 

Le problème est l’inertie du marché PC. Les développeurs ne déclinent pas leur app en ARM parce qu’il n’y a pas de matériel et de marché, et les fabricants ne font pas de matériel parce que sans apps personne ne les achèterait…

Avec au milieu de tout ça une émulation assez pourrie de Microsoft qui ne facilite pas la transition.

Apple a le pouvoir d’imposer la bascule, et en plus de la faciliter avec Rosetta. Les développeurs savaient ce qui les attendait et pour la plupart, Rosetta permettait de prendre un peu de temps.

avatar r e m y | 

Attention, quand on parle du "marché", pour les constructeurs ou pour les développeurs on parle de 2 marchés totalement différents.
Pour les constructeurs, le "marché" c'est ce qui se vend une année considérée.
Pour les développeurs, le "marché" c'est le parc installé (tous les "vieux"PC qui sont encore utilisés) car c'est à eux qu'ils vendent leurs applications.

Quand on vit une transition ces 2 visions du "marché" on du mal à se raccorder. Les constructeurs peuvent voir un marché à 30% de machines ARM, quand les développeurs voient encore un marché ultra majoritairement composé de machine à processeur INTEL.
Il faut du temps pour que ces 2 "marchés" se rejoignent en terme de composition... d'où l'inertie.

avatar Furious Angel | 

@r e m y

C’est vrai, mais ça complique encore plus le cercle vicieux. Les développeurs ne bougent pas, donc les fabricants ne bougent pas, donc les développeurs ne bougent pas…

avatar iPop | 

@Furious Angel

Tu as aussi le même avec les voitures.
Les gens achètent une voiture à l’essence parce que moins chère qu’une électrique.
Ainsi les constructeurs vendent de l’essence que les gens achèteront à la suite.
Uniquement une catastrophe pourrait arrêter c cercle vicieux finalement que l’on puisse avancer.

avatar Furious Angel | 

@iPop

Oui mais une électrique est souvent plus haut de gamme, moins chère à l’utilisation, et surtout utilisable.

Si tu bosses sur un logiciel qui n’existe pas pour Windows ARM, c’est impossible de switcher.

avatar iPop | 

@r e m y

C’est exacte, c’est d’ailleurs pourquoi je vois mal la mayonnaise des Laptop ARM monter.
Les marchés (éditeurs) de niches se contentants de l’existant, c’est à Microsoft qui incombe de faire son Rosetta.

avatar joneskind | 

@r e m y

C’est vrai que c’est pas très clair.

Donc l’article parle des ventes de PC mais pas du parc installé ?

Donc si je comprends bien ça veut dire qu’en 2026 1 PC sur 3 vendu sera ARM.

Je trouve ça surprenant. À l’heure actuelle la PDM installée de macOS c’est 15%. On devrait pouvoir en déduire que la PDM vente est au moins du même niveau. Donc la PDM vente de machine ARM devrait au moins être de 15% (à moins que les clients Mac achètent encore en masse des Mac mini intel et des Mac Pro mais j’ai un gros doute)

Y a rien de cohérent dans tous ces chiffres !

NB: Steam a publié ses stats et 1 utilisateur Apple sur 2 est déjà passé à Apple Silicon.

ÉDIT: source https://gs.statcounter.com/os-market-share

avatar iPop | 

@joneskind

« Donc si je comprends bien ça veut dire qu’en 2026 1 PC sur 3 vendu sera ARM. »

J’imaginais plutôt l’inverse. Les PC sont majoritairement utilisés dans les administrations ou écoles, l’ARM est tout désigné pour ces taches.
Le PC, la grosse station de travail, serait dédiée aux lourdes tâches (industrie du cinéma, etc…)
J’en conclu qu’on en vendrait plus de ARM.

Si INTEL veut survivre, il faudra quel fasse un choix : faire des effort a s’adapter au « mobile » ou rester sur son savoir-faire (plus puissant, plus lourd, plus cher).

avatar XiliX | 

@Furious Angel

Les outils de dev maintenant sont pour beaucoup cross-platforme, ordinateurs/mobiles, Windows/AppleOS & Android. Donc x86/Arm

avatar iPop | 

@Furious Angel

« Le problème est l’inertie du marché PC. Les développeurs ne déclinent pas leur app en ARM parce qu’il n’y a pas de matériel et de marché, et les fabricants ne font pas de matériel parce que sans apps personne ne les achèterait… »

Ça ne risque pas de changer car par extension les Laptop bénéficient des applications venant des PC desktop.
Contrairement à Apple qui risque à terme de supprimer le MacBook qui fait double emploi avec l’iPad.
Apple ne va pas produire un appareil pour nourrir un marché de niche, je sous-entend les applications de Vidéos Pro, de 3D ou d’architecture ou autres. Elle va certainement pousser ceux ci vers l’iPad, pour ceux qui ne veulent pas, il restera toujours le Mac Mini et Studio qui est plus adapté à cette clientèle.

avatar yd29021976 | 

@iPop

Et donc plus de « macos en mobilité » ?
Ça impliquerait a minima une bonne refonte/évolution de ipadOs + migration de bon nombre d’apps macos vers ipadOs/iOs.

Marrant, moi je voyais plutôt une extinction de l’espèce « desktop » chez apple 🙄😉

avatar iPop | 

@yd29021976

« Marrant, moi je voyais plutôt une extinction de l’espèce « desktop » chez apple »

C’est une possibilité, Apple étant avant une marque grand public. Elle a déjà divorcé avec Adobe, si elle s’aventurait à supprimer Final Cut, déjà que Aperture a disparu, pourquoi pas.
Ou alors elle laisserait finalement tomber le MacPro.

avatar BeePotato | 

« en prenant en compte qu'un « PC » est un ordinateur personnel au sens assez large. »

Si on se met à considérer l’ordinateur personnel au sens large, on pourrait aussi (comme l’ont déjà fait certains analystes) y intégrer les tablettes, ce qui fait monter la part d’ARM.

avatar XiliX | 

Pour les ordinateurs personnels, 30% en 2026, c'est plus que jouable.

J'y crois moyen pour les serveurs en revanche.

avatar Chris K | 

J’ai voulu me configurer un Lenovo ThinkPad aux petits oignons. Et je n’y arrive pas. Si je veux que la batterie dure plus de 3 heures je dois forcément faire l’impasse sur la puissance et inversement si je veux de la puissance le truc chauffe comme un malade et la batterie est vite vidée même avec des tâches peut lourdes.

J’aurai tendance à penser que l’ARM pourrait améliorer les choses. Déjà quand je vois ce que mon iPad Pro M1 est capable de fournir sans chauffer pendant une durée raisonnable..

avatar byte_order | 

Si on pouvait arrêter de parler d'achitecture d'ordinateur ARM, svp !
Cela n'existe pas. Il ya *des* plateforme*s* tournant sur des CPU à jeu d'instruction ARM, mais aucun n'est interchangeable, l'OS pour l'une ne tournera pas pour l'autre.
Y'a des Linux pour Raspberry, pour Surface RT, pour Mac M1, pas un Linux pour ordinateur ARM.
Tandis que de l'autre coté, vous avez bien un Linux pour ordinateur PC 64bits, Windows pour ordinateur PC 64 bits, et non pas un pour PC Lenovo, un pour PC Microsoft, un pour PC Dell.

Hors c'est cela qui gène le plus la progression des parts de marchés des CPU dans les ordinateurs, surtout côté entreprises : ils ne sont pas interchangeables et souvent très limités en terme d'interopérabilité avec du matos complémentaires déjà chèrement acquis, on ne peut donc pas changer de fournisseur, ce qui pose un risque de dépendance trop important.

Recompiler le code d'un OS en instructions ARM c'est pas bien compliqué.
Mais l'adapter pour qu'il fonctionne sur les multiples plateformes utilisant à CPU ARM, ça c'est une autre histoire. Chacune à son mecanisme de boot spécifique, voir proprio, chacune à ses bus d'interfaces externes qui reposent sur des technos différentes, voir proprio.

Le succès des PC n'a jamais reposé sur la qualité du jeu d'instruction du CPU. Dès le départ un 68000 était déjà un bien meilleur choix par exemple. Non, il repose sur la définition de standards "externes" du CPU, qui l'a rendu interopérable avec tous les composants fait pour ces interfaces, et interopérable avec tous les OS et logiciels utilisant le support de ces interfaces. Mécanisme de boot, structure de partitionnement des disques, découverte et topologie des composants installés compris.

Regardez le mal nommé "SDD" des Mac M1 : en fait ce sont juste des puces Flash NAND. La partie contrôleur est proprio, situé dans le SoC M1, mais ne fait pas partie de ce que l'on appelle ARM, ce qui rend l'accès au contenu dépendant du bon vouloir du concepteur de ce SoC, ici Apple, et donc freine très fortement son usage depuis d'autres OS. Coté serveur, Apple n'a pas d'offre, ni matériel ni coté OS. Comment on switch massivement un datacenter sur des machines d'Apple histoire de basculer en ARM, alors que vos services et/ou vos clients ont besoin que cela tourne sous Linux (>50% du code qui tourne dans des serveurs aujourd'hui le fait sous Linux...) ?

avatar joneskind | 

@Byte_order

Tes commentaires sur le sujet sont super intéressants. Merci !

Questions de noob :
Est-ce que les constructeurs de puces ARM pourraient s’entendre sur un standard qui faciliterait le boulot d’adaptation des OS ? Est-ce que c’est dans leur intérêt ?

Si l’OS doit être adapté pour chaque SoC, ça va être un calvaire pour MS, non ?

Dernière question, est-ce qu’un système de drivers pourrait fonctionner ? Comme les GPU qui ont leur propre architecture ?

Désolé si ces questions te semblent stupides.

avatar byte_order | 

@joneskind 
> Est-ce que les constructeurs de puces ARM pourraient s’entendre sur
> un standard qui faciliterait le boulot d’adaptation des OS ?

Oui.
Ou même s'ils ne le font pas, il suffit que l'un d'entre eux acceptent d'être plus transparent sur sa plateforme à lui pour générer un appel d'air à la copie, certes, mais également à l'émergence d'un "compatible trucARM".

> Est-ce que c’est dans leur intérêt ?

Non. Car cela signifie d'accepter la compétition frontale, à quasi arme égale.
Alors que chacun veut surtout devenir bien dominant sur ce marché, sûrement pas de faciliter la compétition avec leurs concurrents.

On est donc dans la phase où chacun invente sa propre plateforme proprio.

> Si l’OS doit être adapté pour chaque SoC, ça va être un calvaire pour MS, non ?

Oui. Alors que pour l'instant cela ne lui apporte pas grand chose.

> Dernière question, est-ce qu’un système de drivers pourrait fonctionner ?
> Comme les GPU qui ont leur propre architecture ?

Toute solution apportant un couche standardisée aidera. Qu'elle soit physique (connecteurs), matériel (voltage, protocoles matériels), ou logiciel (virtualisation, firmware et pilotes d'abstraction à la UEFI).
Mais à ce jour, on en est loin.

> Désolé si ces questions te semblent stupides.

Aucune question n'est stupide. Seules les réponses peuvent l'être.

avatar occam | 

@byte_order

> « Coté serveur, Apple n'a pas d'offre, ni matériel ni coté OS. Comment on switch massivement un datacenter sur des machines d'Apple histoire de basculer en ARM, alors que vos services et/ou vos clients ont besoin que cela tourne sous Linux… »

Dans l’imaginaire d’un public qui avale la mythologie Apple sans la mâcher, peu importent les contraintes structurelles : « y’a qu’à ».
L’intendance suivra.

Apple peut se permettre de multiplier les solutions insulaires l’une après l’autre, étant libre des contraintes qu’impose le maintien d’une infrastructure qui fait fonctionner le tout. Libre des contraintes de compatibilité en dehors de sa propre bulle, Apple exploite les infrastructures ambiantes tout en ringardisant aux yeux de sa chapelle les bases matérielles de ces infrastructures. Il serait amusant de considérer l’équivalent biologique d’une telle stratégie.

> « Le succès des PC n'a jamais reposé sur la qualité du jeu d'instruction du CPU. Dès le départ un 68000 était déjà un bien meilleur choix par exemple. »

Bien meilleur choix, et le rendez-vous manqué avec IBM PC fut un immense ratage, dont nous subissons encore les conséquences.

J’ai travaillé sur m68k dès 1982, 2 ans avant le lancement du Mac. D’abord sur Wicat, ensuite sur Sage IV et, amère ironie, IBM System 9000, IBM étant le premier à embarquer non seulement le processeur 68000, mais également le VERSAbus de Motorola, ancêtre direct du VME. Sage et Wicat utilisaient des bus « maison ». Ce qui devait être interopérable ne l’était pas, alors que toute la connectivité interne et externe du PC basé sur 8088/8086, propriétaire en théorie, était ouverte et interopérable.
(Chacune de ces belles machines m68k roulait son OS bien à elle, quoiqu’elles fussent prêtes pour les Unix du jour. Elles y eurent finalement droit, mais trop tard pour établir une plateforme commune, encore moins un standard.)

avatar iPop | 

@byte_order

Très intéressant ton commentaire et instructif, merci 👍

avatar joneskind | 

Ça ne me semble pas du tout déconnant comme analyse.

La plupart des PC en entreprise sont des équipements de bureautique qui pourraient déjà se contenter de la puissance des SQ3. Dans ce contexte c’est surtout l’autonomie des machines qui est regardée. Une bonne machine Dell ou HP ferait un carton

Ensuite 2026 c’est dans 4 ans. Ça laisse largement le temps à Qualcomm et pourquoi pas AMD ou Nvidia de fabriquer une puce compétitive sur le marché grand publique.

avatar melaure | 

@joneskind

Il faut deux trois concurrents sérieux au M1 et ca peut vite décoller !

avatar Furious Angel | 

@melaure

Je pense qu’il faut surtout que les puces ARM dans le monde Windows démontre une vraie plus-value face au x86. Rapidité, conso énergétique etc…

Pour le moment on surtout des freins liés à la compatibilité.

avatar joneskind | 

@melaure

En vrai je pense qu’un seul concurrent sérieux ferait déjà le taf ^_^

Ce serait sans doute plus simple pour tout le monde d’ailleurs, compte tenu de la difficulté à développer et maintenir le logiciel pour toutes « machines à instructions ARM ».

Le SQ3 qui équipe la dernière Surface Pro et le DTK de Microsoft atteint en natif à peine les performances du DTK d’Apple, lui-même sorti il y a plus de 2 ans et basé sur le proco d’un iPad sorti il y a plus ou moins 3 ans. Je ne parle même pas de la partie graphique ni des performances du « Rosetta » de Windows…

J’ai presque l’impression que MS cherche à tuer la transition ARM dans l’œuf.

avatar lldjandoll | 

Apple 30% de marché ! Leur rêve depuis les années 80 et le monopole de Microsoft 🤞

CONNEXION UTILISATEUR