Le patron d'Intel trouve les puces ARM insignifiantes dans le monde PC

Pierre Dandumont |

Le patron d'Intel, Pat Gelsinger, vient d'affirmer une chose assez étonnante : « (les puces) ARM et les alternatives à Windows ont été généralement reléguées à des rôles assez insignifiants dans le monde du PC. ».

Pat Gelsinger en 2017 (Web Summit, CC BY 2.0 DEED)

Cette phrase est tirée d'une conférence téléphonique liée aux résultats d'Intel et elle peut être interprétée de deux façons. Car selon la lorgnette dans laquelle vous regardez, il a parfaitement raison… ou totalement tort.

Il a totalement tort

Une vision est évidente : Apple a remplacé les puces Intel par ses propres puces ARM et macOS a une part de marché finalement assez élevée dans le monde. Statcounter place macOS aux environs de 20 % de parts de marché sur les ordinateurs, contre un peu moins de 70 % pour Windows. Et même pour Intel, la perte des machines d'Apple a été visible : Apple est le cinquième fabricant de PC au monde, avec environ 5 millions de Mac vendus par trimestre… soit cinq millions de puces qui auraient pu être des CPU Intel.

Le MacBook Air M1 n'a pas été insignifiant pour tous les analystes.

Même au-delà du cas Apple, certains ont de grands espoirs dans l'évolution du marché « GNU/Linux » au sens large, même s'il n'y aura probablement jamais une « année de Linux sur desktop ». Pour les puces ARM, Qualcomm a visiblement l'air de croire en sa nouvelle puce Snapdragon X Elite et des rumeurs indiquent que Nvidia et AMD pourraient s'engouffrer dans ce secteur une fois que la période d'exclusivité de Qualcomm sur les PC ARM (qui n'a jamais été réellement reconnue par Microsoft) sera terminée.

En clair, tant Windows « ARM » que les Chromebooks et autres Mac taillent dans les croupières de Windows, et les puces ARM tendent peu à peu à remplacer les processeurs x86 d'Intel (et AMD).

Il a totalement raison

D'un autre côté, toujours en commençant par Apple, il a totalement raison. Même si les parts de marché de macOS sont plus élevées qu'elles ne l'ont été, Windows reste le système d'exploitation principal dans le monde des PC. Et même si les puces ARM d'Apple ont du succès, la part de marché d'Apple dans ce domaine reste faible dans l'absolu.

La Surface Pro X, un appareil sous Windows 11 ARM.

Le passé a montré que le monde PC était surtout très conservateur : les puces RISC des années 90 — PowerPC, Alpha AXP, MIPS, etc. — devaient remplacer les x86 dans les PC sous Windows NT… et Windows 2000 a sonné le glas de ces expérimentations. Les puces ARM devaient remplacer les x86 dans les tablettes et autres PC portables avec Windows RT en 2012… et l'échec a été complet. En 2017, rebelote, les PC sous Windows 10 ARM devaient remplacer les puces x86… et c'est globalement un échec. Même si les PC Windows 10 (et maintenant Windows 11) équipés d'une puce ARM existent encore, ils ne font que vivoter avec des parts de marché ridicules et assez peu d'avantages en pratique. Et enfin, dernier exemple en date, les Chromebooks ARM devaient s'imposer, mais le programme « Plus » de Google ne contient pour le moment que des puces Intel ou AMD.

Pat Gelsinger considère probablement que les limites de Windows « ARM » vont perdurer pendant un temps, ce qui va continuer à éloigner les utilisateurs des PC de ce type… et favoriser les puces Intel. Les six dernières années tendent à prouver que le raisonnement se tient, mais l'arrivée de Qualcomm avec une puce performante et d'AMD et Nvidia pourrait changer la donne… ou pas.

Enfin, pour terminer, il faut évidemment prendre la situation globale d'Intel : la société a complètement raté le virage de la mobilité et se recentre sur les PC depuis quelques années, ce qui implique évidemment qu'annoncer des inquiétudes sur l'avenir du marché principal de la firme n'est pas une option.

Tags
avatar Glop0606 | 

Vous aussi vous avez pensé à Ballmer qui prédisait un avenir pas fou à l’iPhone car il n’y avait pas de clavier tactile? 😄

avatar Ouetham | 

Et bien j'espère que Pat lit assidûment les sections commentaires de macg. Et que cela lui ouvrira les yeux sur l'avenir de sa compagnie. Si certains pouvaient aussi donner les numéros du loto puisqu'ils voient l'avenir ça serait très sympa. Blague a part, contrairement à bcp ici je ne souhaite pas la fin d'Intel. Outre le côté puéril et bien qu'utilisateur apple depuis les G4, je me dit qu'une alternative sera toujours bénéfique. Rien de pire que de se retrouver pieds et point liés à un seul acteur et/ou écosystème. Apple ou autre, peu importe. D'autant que l'évolution de mac os ces dernières années ne me satisfait pas énormément. Les itérations annuelles sont néfastes et la philosophie a bcp changée pour aller vers un système terriblement fermé. Sous prétexte de sécurité, ils virent des fonctions, rendent pénible l'installation des applications hors MAS,m...Bref c'est pas le sujet mais juste pour dire que si les macs sont aujourd'hui de très bonnes machines, c'est loin d'être assuré dans le temps. Sans parler du désastre écologique du tout soudé...
Dernier point pour en revenir à l'article, l'ami Pat ne peut évidemment pas dire autre chose. C'est son boulot de rassurer les investisseurs, mais ne peut-on aussi imaginer qu'il a des infos que nous n'avons pas ?notamment sur les projets de R&D, lui permettant de ne pas être aussi catastrophiste (ou réjouis )que certains ici ?

avatar TuringTone | 

Tout comme Kodak, intel dispose en interne d'atouts technologiques importants dont la photonique sur silicium qui, décuplant la bande passante dans les processeurs et entre les processeurs, permet d'augmenter de façon considérable les performances des SoC, System on Chip.
AMD partage ce savoir faire MAIS ne sait pas graver, et TSMC sait graver Mais ne maitrise pas cette technologie.....
Apple en aura besoin pour faire progresser sa gamme Mx, et il y a de fortes chances que ce gros client pousse à une coopération sur cette technologie stratégique, entre les usines américaines de ces 2 géants qui pour l'instant s'ignorent....
Cela prendra du temps, mais Apple avait bien réussi à faire travailler ensemble Corning et Samsung sur le Gorilla Glass des iPhone....

avatar RB3D | 

Quand l’électricité coûtera extrêmement cher, tous les fabricants invente des processeurs gourmand.

avatar pechtoc | 

@RB3D

Mouais, ca n'arrivera jamais tant un ordi est insignifiant en consommation. Par contre l'explosion du prix de l'électricité tuerait la voiture électrique et les pompes à chaleurs bien avant, pour repartir sur du fossile. Ce qui n'arrivera jamais.

Sinon il n'a pas tort, à l'annonce du M1 le match était plié selon certain, Apple était au dessus de tout et les utilisateurs d'ordi allait migrer vers Apple. Et bien... Il s'est rien passé, le marché est tjrs le même, mais Apple est passé sur ARM oui.

avatar Pierre Dandumont | 
Un ordinateur n'est pas insignifiant en pratique dans un foyer. Chez une personne qui joue deux heures par jour (ce qui est plutôt bas pour un joueur), ça monte assez vite quand même.
avatar pechtoc | 

@Pierre Dandumont

Oui ça va consommer mais ça reste plus faible qu'une voiture électrique vers quoi on pousse, et je parle même pas de pompes à chaleurs qu'on veut installer partout.
Mon message allait plutôt en ce sens, avant qu'on réagisse pour le prix de l'électricité d'un PC gamer, il y a d'autres secteurs qui feront mal avant.

avatar BleuRooster | 

@RB3D

Électricité devient plus cher en France, artificiellement à cause du fonctionnement de l’Europe et notre cher président n’a pas l’air si pressé que cela que de mettre un coup de pied dedans! Car en France, nous sommes censés avoir l’électricité la moins chère du monde avec nos centrales nucléaires!

Et j’espère que la fusion nucléaire t’arrivera rapidement. Nous aurons une énergie illimitée qui demande encore moins d’entretien qu’une centrale nucléaire. 🤞🏻

avatar yod75 | 

@BleuRooster

Sois un minimum honnête en expliquant qu il y a une contrepartie : la sécurité d approvisionnement. Et que tu étais bien ci tent de ne pas avoir de coupure d alimentation. Qu’à d 49% des réacteurs étaient au tapis

avatar BleuRooster | 

@yod75

Au tapis à cause d’une mauvaise gestion! Comme dans beaucoup de domaines!
Mais je réitère c’est une connerie monumentale cette règle européenne ! Qui profite encore au pollueur allemand avec ses usines à charbon(effectivement ils n’ont plus de nucléaire 😅) ou au pays mal loti en centrale nucléaire ou un réseau nucléaire inexistant!

Moi je suis Français j’attends d’un président Français qu’il défend les intérêts des Français en l’occurrence notre pouvoir d’achat! nous ne sommes en encore un État fédéral Macron c’est un président pas un simple ministre européen! Nous somme encore indépendant pas vassale de l’Allemagne ou des USA….

Donc soit un minimum honnête en arrêtant de croire que la France c’est rien sans l’union…. Nous somme capable de tout nous l’avons prouvé dans notre passé historique.

avatar v1nce29 | 

La sécurité pour les Allemands !
Qui voyaient l'électricité française pas chère comme le (dernier) avantage de l'industrie française et ont tout fait pour le saboter (et continuent d'ailleurs)

En même temps que les Américains faisaient tout pour saboter le NordStream qui securisait l'approvisionnement allemand en espérant limiter la croissance allemande et/ou à terme fournir une énergie made in US.
La guerre économique engendre parfois la guerre réelle.

avatar TuringTone | 

Avant qu'EDF et Areva, maintenant Orano, ne mettent à la retraite ceux dont les compétences gênaient, la France produisait une électricité à un coût compétitif, sans tenir compte des miettes sous le tapis que sont le coût du démantèlement et le traitement des déchets radio-actifs. Depuis la France a perdu da souveraineté dans ce domaine puisque que l'on importe de l'uranium et....des soudeurs canadiens et américains pour réparations et maintenance....
De plus comme le montrent clairement les rapports annuels ElecNuc de l'Agence Internationale de l'Energie, AIE-IEA, EDF-CGT est l'un des plus mauvais exploitants electro-nucléaires de la planète.......
Quant à la fusion nucléaire, ne pas en rêver avant 2080 au plus tôt, et, contrairement aux légendes comportées par les médias, tout bombardement de neutrons rend un matériau radio-actif......et pas pour quelques secondes.....
Pendant que la facture des EPR n'arrête pas d'augmenter, le coût de l'électricité photovoltaïque ne cesse de dégringoler et devient de plus en plus compétitif.
Le seul problème, c'est que pour "protéger" l'électronucléaire français, EDF et CEA, pour une fois la main dans la main, ont tué le photovoltaïque français qui était l'un des leaders mondiaux:
ce sont les français RTC et SAT qui fournissaient les cellules solaires qui équipaient les satellites de télécommunication américains IntelSat construits par Hughes Aircraft et TRW.....
...et maintenant ce sont les chinois qui tiennent le marché.....ce qui n'enlève rien aux principales qualités du Photovoltaïque: entièrement statique, pas de frottement ni d'usure; totalement modulaire de 100mW à 100MW, sur le lieu de consommation; montage et mise en service en quelques jours ou quelques semaines....après avoir vaincu les champs de mines administratives crées par les tenants du nucléaire....

avatar BleuRooster | 

@TuringTone

On n’en revient toujours au même c’est toujours une mauvaise gestion, un manque de vision de nos dirigeants qui se font toujours surprendre et qui essaie de gérer ce qui leur tombe sur le coin du nez la tête dans le guidon.

Concernant la fusion nucléaire la première centrale test c’était plutôt vers 2035 espérons juste une avancée plus rapide, peut-être que l’intelligence artificielle fera avancer les choses plus vite, ou des découvertes/avancées scientifique.

Toujours est-il que notre besoin d’énergie on va certainement pas le comblé avec des panneaux solaires et des éoliennes, c’est juste des alternatives pour assister/complété un bon réseau nucléaire, on le voit bien avec les Allemands vu leur galère depuis qu’ils ont arrêté le nucléaire il pollue beaucoup plus, sont dépendant des pays producteurs d’énergie fossile, leur électricité coûte plus cher.

avatar Moebius13 | 

@TuringTone

Il faut arrêter avec le photovoltaïque, ça n’a pas d’avenir en tant que source d’énergie autre que d’appoint !

Tant qu’on aura pas trouvé le graal du stockage d’énergie, ça ne pourra pas être une solution viable, tout comme l’éolienne pour alimenter un pays en énergie.

Surtout à l’heure où l’UE souhaite que d’ici 2030 on ne vende plus de voitures thermiques, il va falloir produire de sacrés quantités d’énergie pour alimenter les futurs parcs de véhicules électriques.

Des calculs, des vrais ont été fait, et pour alimenter la population française en énergie, il faudrait recouvrir 1/3 du territoire métropolitain d’éoliennes et de panneaux photovoltaïques, 1/3 !!! Et ça ne marcherait que les jours de soleil ou de vent, c’est une absurdité totale et un miroir aux alouettes.

Il n’y a pas 50 solutions à part la construction de nouvelles centrales nucléaires, sauf si on veut se remettre au charbon et au gaz comme les allemands et revenir un siècle en arrière.

Le problème c’est qu’à cause d’une minorité sur le plan politique et de calculs électoraux, on a diabolisé toute une filière et on a perdu énormément en compétence alors que nous étions le champion du nucléaire civil mondial il y a moins de 30 ans !

Les problèmes rencontrés par l’EPR ne viennent pas de la technologie ils viennent uniquement d’une perte de savoir faire et d’organisation.

Les chinois ils en ont déjà mis en fonctionnement des EPR et eux ne se posent pas la question, ils multiplient les projets de construction de centrales, tout comme l’Inde.

Et c’est effectivement honteux qu’on doive faire venir des Etats-Unis ou du Canada des soudeurs et des ingénieurs pour l’entretien de nos centrales, c’est à la limite du sabotage industriel de la part de nos politiques à ce stade (moi j’irai même jusqu’à dire que ça l’est).

Les allemands ont voulu jouer les malins mais aujourd’hui ce sont les plus gros pollueurs d’Europe avec leurs centrales et ils doivent importer du gaz de Schiste en provenance des Etats-Unis et construire des terminaux méthaniers pour accueillir tout ça !
On leur dire que l’abandon du nucléaire est une franche réussite, bravo ! Et nous comme des couillons on suit doucement la marche sous la pression des verts (qui ne comprennent rien à l’écologie) et celle des allemands trop heureux de nous enlever cet avantage compétitif inestimable.

Parce qu’effectivement si nos politiques avaient à cœur l’intérêt des français, ça ferait un moment déjà que nous aurions annoncé notre sortie unilatérale du système de tarification de l’énergie européen qui fait exploser nos factures d’électricité alors qu’elles devraient être les plus faibles d’Europe !!!!

Alors on nous dit que c’est impossible, que ce serait l’apocalypse bla-bla-bla… mais pourtant des pays ont réussi par le passé à négocier des clauses spécifiques pour eux-mêmes.

Le Royaume-Uni sous Tatcher c’était à la carte, et l’Europe acceptait, et quand ils étaient encore dans l’UE ils avaient des avantages et des dérogations qui leur était propres.

Que va-t-il se passer de si terrible si demain la France annonce reprendre le contrôle des prix de son énergie et se retirer du système européen ? La France est un pilier de l’UE avec l’Allemagne, je doute que la sanction soit terrible et dans tous les cas les français qui ont du mal à payer leurs factures et à se chauffer pourront enfin le faire avec une diminution plus que substantielle des tarifs du kilowattheure.

Sans compter le gain de compétitivité pour nos entreprises et si on est assez intelligents pour remettre des centrales en construction et récupérer les compétences perdues, redevenir à terme autosuffisants en énergie et exportateurs nets d’électricité vers les autres pays d’Europe, y compris en Hiver.

Et on verrait au passage le vrai visage de « nos amis allemands », qui je pense seraient très en colère de nous voir récupérer la souveraineté qui nous avait été arrachée et nos entreprises payer leur énergie deux fois moins cher que les leurs (ça ferait débat dans leur pays au passage).

Au Japon malgré Fukushima ils n’ont pas abandonné le nucléaire loin de là, ils sont pragmatiques, ce ne sont pas des idéologues.

En ce qui concerne la gestion des déchets nucléaire qui fait tant peur, c’est uniquement parce que les médias entretiennent cette peur et désinforment totalement les français sur le sujet.

Il suffit d’écouter ce qu’en dit Jancovici, qui quoiqu’on en dise donnait son sujet, et qui explique que non seulement le volume des déchets est infiniment plus faible que les français ne l’imagine dans leur esprit mais qu’en plus le stockage n’est pas fait « à l’arrache » comme on dit, mais prévu pour ne pas contaminer les nappes phréatiques avec un confinement étudié et élaboré spécifiquement pour faire face aux pires situations.

Pour le stockage définitif, cela se fait généralement dans une formation géologique profonde adaptée à un tel stockage (stabilité prouvée sur des échelles géologiques, absence ou circulation d’eau limitée, éloignement de toute ressource naturelle potentielle, etc.). Aux Etats-Unis par exemple, les déchets sont stockés dans des galeries percées à 650 m de profondeur dans des formations géologiques qui n’ont pas bougé depuis 225 millions d’années.

Pour information, la masse totale de déchets radioactifs de haute activité à vie longue qui représentent 95 % de toute la radioactivité générée par l’énergie nucléaire en France est de moins de 10 tonnes par an, soit environ l’équivalent d’un camion !

Le cumul des productions de déchets nucléaires depuis l’origine de la fabrication des premiers réacteurs civils en France est de 3 650 m3, ce volume tient en une seule piscine olympique !!!

C’est comme ces écolos qui veulent nous faire peur quant au danger de nos centrales en invoquant Tchernobyl et Fukushima.

Dans le premier cas, un incident de type Tchernobyl est impossible en France en raison de la conception même de nos réacteurs et des précautions prises (notamment avec des cuves de récupération et des systèmes redondant), pour éviter ce type d’incident.
À ce qu’on sache le nucléaire civil n’a tué personne en France depuis qu’on l’exploite, en revanche l’exploitation du charbon et du gaz c’est autre chose….

Quant à Fukushima nous ne sommes pas situés sur « la ceinture de feu du pacifique », à la croisée de plusieurs plaques tectoniques et exposés à des risques de Tsunamis ou de tremblements de terre catastrophiques.

Et même dans ce cas là, nos centrales sont justement prévus pour faire face à ses séismes et Jancovici (encore lui) expliquait que NON, même un avion kamikaze jeté sur une centrale nucléaire française n’occasionnerait pas un incident nucléaire majeur de type Tchernobyl.

Et au passage l’incident de Fukushima a énormément alarmé les populations mais le nombre de morts selon l’OMS serait de 4000 personnes (et c’est sujet à caution) et les organismes les plus alarmistes (donc pas nécessairement les plus fiables) parlent de 60 000 décès dans le futur en lien avec l’incident.

Actuellement les zones alentours ont été en grande partie décontaminées (rien à voir avec Tchernobyl) et une partie du territoire évacué est de nouveau habité.

Pour rappel c’est un séisme de magnitude 9 qui a abouti au tsunami et à la catastrophe (aucun scientifique ne soutiendrait qu’un tel séisme ne puisse se produire en France sauf peut être s’il est fan de Roland Emerich).

Quant à la fusion nucléaire, certes ça n’est pas demain la veille et c’est hélas parce qu’on ne finance pas suffisamment la recherche à son sujet.
J’habite près d’Iter, et nous savons que la direction du projet doit chaque année convaincre les pays signataires de poursuivre leurs investissements et on parle de sommes dérisoires par rapports aux gains que l’on pourrait retirer d’une fusion maîtrisée.

Si demain on attribuait le budget des différents programmes de la Chine, ou des Etats-Unis pour retourner sur la Lune, au projet ITER, celui-ci pourrait se passer de financement pendant 10 ans.

Sur 12 ans de projet, on en est à 20 milliard d’euros pour ITER avec 33 pays participant au projet.
Le programme Artemis de la NASA c’est 94 milliards de dollars d’ici 2025 !!!

Voilà où est le sens des priorités semble-t-il….

Et même si effectivement même la fusion produira des déchets nucléaires, les réacteurs de fusion nucléaire ne produisent pas de déchets radioactifs de haute activité à vie longue. Les matériaux pourraient être recyclés ou réutilisés au bout de seulement 100 ans.

Donc on le dira tout ce qu’on voudra mais le nucléaire est une source d’énergie abondante, maîtrisée, propre car décarbonnée, pilotable, sûre (le risque 0 n’existe pas) et les rejets de déchets radioactifs sont quantités négligeables et les précautions prises pour les entreposer me permettent de dormir sereinement.

Par contre la pollution des centrales thermiques, qu’elle vienne de France ou de nos voisins teutons, vient directement s’infiltrer dans nos poumons.
Je vis en PACA en zone Seveso près de centrales thermiques et d’un incinérateur, et ici les cancers explosent depuis 30 ans….

avatar cedo | 

@Moebius13

Ouais enfin quand tu vois la puce M1 qui est aussi puissante que les MacBook Pro 16 Intel…

Les puces surpuissantes Intel, tu ne les aurais jamais retrouvé dans un châssis de Mac pour des raisons de dissipation thermique et de consommation…

Quand tu vois ce que tu peux faire avec les Mac fixes et portables, la claque a été quand même violente…

avatar Moebius13 | 

@cedo

Oula attention à ne pas aller trop vite en besogne un Soc ARM et un Soc X86 ce sont deux choses différentes.

Les processeurs x86 ont généralement une plus grande puissance de calcul et offrent plus de clarté ou de simplicité pour la programmation et le nombre d'instructions, mais en contrepartie, ils requièrent une puce plus grande et plus coûteuse avec beaucoup de transistors. Les processeurs ARM peuvent être très rapides pour certains types d'opérations, toutefois les cycles répétés liés aux instructions individuelles peuvent les ralentir en cas d'opérations plus complexes et c'est au programmeur (et non au jeu d'instructions) de fournir le plus d'efforts pour la définition et l'exécution des opérations.

Le X86 offre davantage de polyvalence tandis que du côté d’ARM on part sur de la spécialisation et on ajoute des puces annexes pour gérer physiquement telle ou telle fonction (une ancienne approche dans le monde de l’informatique ça ne date pas d’hier).

Le problème c’est que du côté de l’ARM si on veut l’amener à la même polyvalence que le X86 il faut lui ajouter des jeux d’instructions et plus tu en ajoutes plus tu vas vers les limites de cette solution.

Pour citer :

« Dans le monde ARM, c’est avant tout sur le logiciel que le travail d’optimisation doit être fait, et en particulier sur le compilateur. En effet, les instructions s’exécutant à peu près toutes dans un même nombre de cycles, il est essentiel de produire du code utilisant le moins d’instructions possible : pour un même résultat final, plus le code sera court, plus il sera rapide.

Dans le monde x86, il est bien évidemment aussi important de réaliser des optimisations au niveau logiciel, mais elles ne portent cette fois plus simplement sur le nombre d’instructions (pour un même résultat, un programme de 27 instructions peut être plus performant qu’un autre de 23 instructions…), mais aussi sur le choix des instructions complexes et des modes d’adressage, qui peuvent parfois avoir un impact très important sur les performances. »

Il ne serait pas étonnant que d’ici le M4 ou le M5 on voit Apple se heurter à des problématiques et à un retour de la dissipation thermique traditionnelle ainsi qu’une augmentation de la consommation qui n’est contenu pour le moment qu’en raison de la réduction du processus de finesse de gravure.

Mais mise à jour ou pas, quand je joue sur mon 15 PM, je la sens bien la chauffe, ARM ou pas, c’est physiquement impossible de continuer à augmenter la puissance des Soc ARM sans se heurter à ce problème.

Et comme tu as pu le lire, aller vers ARM c’est aussi compter très fortement sur le fait que les développeurs vont jouer le jeu de l’optimisation, et en règle générale pour diverses raisons ça n’est pas leur qualité première de nos jours, l’optimisation, et Apple en opérant certains choix matériels (quantité de ram réduite par exemple), tend à leur forcer la main pour optimiser.

avatar cedo | 

@Moebius13

Certes mais Apple n’a pas fait une transition vers ces puces sans un minimum de visibilité à long terme et les puces M4 et M5 sont déjà en cours d’élaboration.
Donc à terme on verra mais le 3nm, Intel en est loin…

avatar Moebius13 | 

@cedo

On ne compare pas le 3nm ARM et le 3nm d’Intel sur du X86, ça n’a rien à voir je te laisse chercher pourquoi.

avatar cedo | 

@Moebius13

Le plafond de verre tôt ou tard on y’aura droit mais quand je compare les CPU des MacBook Air Intel et ceux des puces Apple, on voit la différence.
Intel a quand même raté ce virage et essaye de relativiser et de se rassurer.

avatar Paquito06 | 

@Moebius13

💯

avatar ataredg | 

Pour l'instant, il a raison.

avatar Biking Dutch Man | 

Dans le milieu pro les ordinateurs wintel ne sont pas choisis par les utilisateurs. Ils sont le résultat d'une stratégie marketing qui a emprisonné tout le monde. J'ai la chance de pouvoir utiliser mon mac en milieu pro, je n'utilise jamais mon pc, tout au plus une version virtuelle sur VMware de temps en temps.

avatar cecemf | 

Ça sent le Nokia et BlackBerry chez intel LOL 😜

Ils apprennent pas de l’histoire! Il vont ce faire bouffer par Qualcomm

avatar Fredouille14 | 

Bon ok, mais qui innove et casse la baraque sur le x86 ? Pas sûr que ce soit Intel mon petit Pat

avatar yod75 | 

"ont été généralement" il parle du passé, prend des pincettes -> il a raison.
Après ce genre d'élément de langage est utilisé quand on commence à s'inquiéter

avatar Darkgam3rz | 

Impressionnant la part d’Apple !!!!

Autour de moi…. Étant sur mac je me retrouve dans la même situation que quand j’étais sous Amiga 😅

👽🛸

avatar Mac1978 | 

Ces CEO qui font des prédictions à la madame Irma sont pathétiques de nos jours.

Aujourd’hui ils ont assez d’exemples pour savoir que la boule de cristal n’est pas fiable et que d’autres avant eux se sont tellement ramassés qu’ils devraient au moins en tirer des conclusions.

En fait, quand on regarde le passé, une conclusion qui s’impose est que toute entreprise qui abuse de sa position largement dominante, ce qui est une énorme tentation, finit par devenir insignifiante sur son marché, voire par disparaître.

La seule exception qui me vient à l’esprit est Microsoft qui a su changer de stratégie en changeant de CEO.

Mais IBM, Nokia, Ericsson, AT&T, Kodak et bien d’autres sont des exemples de géants qui ont disparus ou sont devenus des nains dans leur secteur faute d’innovation.

avatar dodomu | 

@Mac1978

Justement, Intel a changé de CEO, l’ancien était (si je me souviens bien) plutôt issu du domaine de la gestion / finance, quand le nouveau (celui qui tient ce discours) est un ingénieur.
Nul doute qu’il tient ce discours pour rassurer les investisseurs, mais comme le dit l’auteur de l’article, il y a plus qu’un fond de vérité dans ce qu’il dit.
Intel n’est pas en danger à court terme, mais il faut agir dès maintenant, et ce genre de changement ne se fait pas en claquant des doigts, j’imagine (j’espère !) qu’en arrière boutique ça doit charbonner… qui vivra verra !

« La seule exception qui me vient à l’esprit est Microsoft qui a su changer de stratégie en changeant de CEO. »
On peut / pourra peut être citer Apple dans cette catégorie 😉

avatar Cactaceae | 

C’est peut-être le PC qui va devenir insignifiant dans le grand monde de l’informatique. Intel continuera d’y jouer un rôle majeur, mais tout le monde sera passé sur autre chose. C’est exactement ce qu’il se passe chez les particuliers et de plus en plus dans le monde professionnel. Restera les niches, insignifiantes.

avatar Nhugodot | 

Il y a 4 étapes dans la vie d'une entreprise : le fondateur est un ingénieur qui crée un produit, puis vient le commercial qui prend les commande et vend, conquiert son marché, puis un financier vient et ''rationalise'', enfin un DRH vient exécuter son plan social...
Quand donc un financier prend les commandes ça sent mauvais...
Là, Intel a remis un ingénieur, et investi aussi dans l'après ARM, RISC-V, chez Si-Five

Je pense plutôt qu'on est a l'orée d'une révolution déjà pressentie par Oracle et Sun en 2000, les NetPC: Microsoft migre toit sur Azure et lance le PC Windows virtuel: qui a besoin de payer CPU et RAM quand on peut tout faire sur le ''cloud''? Surtout pas les entreprises. RDP (Remote Desktop Protocol) marche très bien même sous ...un tout petit ARM sous...RiscOS! Et avec 128Kbps. Et même de la HD n'a besoin que de 3Mbps maximum donc même une connexion 3G suffit. Bref il y a un basculement de modèle initié avec le web mais qui est faisable pour toute application, et quand on sait faire du cloud gaming on sait faire tout, même du cloud dev (qu'Amazon Microsoft et Google investissent): compiler sur son unique CPU intel une app multi-threads visant un ARM multi-coeurs n'est-il pas idiot?

Pour recompiler/adapter la bibliothèque Windows (voire DOS, soyons fous...) sur ARM ou RISC-V, on aura bientôt des compilateurs transpilareurs et autres émulateurs hyper optimisés grâce à l'IA, toit comme elle sait déjà le faire pour nos langues humaines, même job en plus formel.

Retour au Minitel, VT100, et j'en passe...;-P

avatar Nhugodot | 

Il y a 4 étapes dans la vie d'une entreprise : le fondateur est un ingénieur qui crée un produit, puis vient le commercial qui prend les commande et vend, conquiert son marché, puis un financier vient et ''rationalise'', enfin un DRH vient exécuter son plan social...
Quand donc un financier prend les commandes ça sent mauvais...
Là, Intel a remis un ingénieur, et investi aussi dans l'après ARM, RISC-V, chez Si-Five

Je pense plutôt qu'on est a l'orée d'une révolution déjà pressentie par Oracle et Sun en 2000, les NetPC: Microsoft migre toit sur Azure et lance le PC Windows virtuel: qui a besoin de payer CPU et RAM quand on peut tout faire sur le ''cloud''? Surtout pas les entreprises. RDP (Remote Desktop Protocol) marche très bien même sous ...un tout petit ARM sous...RiscOS! Et avec 128Kbps. Et même de la HD n'a besoin que de 3Mbps maximum donc même une connexion 3G suffit. Bref il y a un basculement de modèle initié avec le web mais qui est faisable pour toute application, et quand on sait faire du cloud gaming on sait faire tout, même du cloud dev (qu'Amazon Microsoft et Google investissent): compiler sur son unique CPU intel une app multi-threads visant un ARM multi-coeurs n'est-il pas idiot?

Pour recompiler/adapter la bibliothèque Windows (voire DOS, soyons fous...) sur ARM ou RISC-V, on aura bientôt des compilateurs transpilareurs et autres émulateurs hyper optimisés grâce à l'IA, toit comme elle sait déjà le faire pour nos langues humaines, même job en plus formel.

Retour au Minitel, VT100, et j'en passe...;-P

avatar Nhugodot | 

J'ajoute qu'avec l'arrivée des casques de XR comme Apple, qui pousse la notion de bureau 3D (voyez aussi le SpaceTop, laptop sans écran mais avec lunettes 3D, etonnant et séduisant ), même GroSoft devra passer à des puces ''portables'' donc pas Intel: on est là sur le territoire idéal d''ARM...
Ou bien comme dit tout se passe sur gros x86 sur cloud distant et envoyé dans ces lunettes. Pas plus mal...

avatar Vini | 

Tu nous manques chez VMW Pat… 😭

avatar Adodane | 

@Vini

Incroyable que ça vale 61 milliards !

avatar ataredg | 

Adodane : ça avale 61 milliards de quoi ?

avatar ataredg | 

Les experts MacGé de l'arrêt de bus Monique Ranou ont parlé !

avatar debione | 

Mouais, j'ai entendu les mêmes personnes dire qu'intel était mort et enterré, parce que le M1 était archi sur-puissant et dépassait les i9/3080 de l'époque, que dans 5 ans c'était plié...
Ce que l'on sait, c'est qu'aujourd'hui, un i7 dernière génération avec une 4090 au cul fait passer les M2 pour des ordi pas puissant du tout (mais avec une très bonne autonomie).

Le truc qui me fait tilter, c'est que j'ai l'impression qu'Intel à fait infiniment plus de progrès au court des 4 dernières années, sur une architecture très vieille, alors qu'Apple a pu à peine augmenter ces perfos entre le M1 et le M2, qui pourtant sont des architectures très nouvelles, donc normalement qui devrait avoir une marge de progression bien plus rapide... Je pense qu'on aura une réponse clair avec les M3... Soit ils foutent une claque au couple Intel/Nvidia (cad que le M3 fera nettement mieux qu'un i7/4090), soit il se peut qu'en fait, le chemin ARM ne soit pas tant évolutif que cela en terme de capacité de puissance, et restera pour les besoins "plus petits"... Surtout avec l'arrivée de l'IA à toutes les sauces qui bouffent des ressources considérables.

Donc soit Apple fait exprès de ne pas aller trop vite (et c'est possible), soit on enterre Intel vraiment trop vite

avatar v1nce29 | 

Quand la plupart des applis sont des applis web quel est l'intérêt d'Intel ?

avatar debione | 

@v1nce29:

Actuellement de mon point de vue, l'intérêt d'Intel est de pouvoir avoir une machine parfaitement taillée pour ses besoins. Contrairement à ce que propose Apple, qui est un bloc indissociable, ou tu vas devoir payer par moment pour des trucs que tu n'utilises pas.
Exemple type, mon i7 de 2015 étant suffisant en terme de puissance proc pour ma MAO. Donc le M1 serait très largement suffisant pour mes besoins de ce côté là. Problématique, pour moi, j'ai besoin de 32 Go de RAM. Donc exit le M1 simple, je suis obligé de passer sur un proc dont je n'utiliserai pas la puissance, dont j'utiliserai encore moins la puissance graphique...

avatar Aloïse Love | 

Le patron de BlackBerry trouve le smartphone moderne insignifiant sur le marché de la téléphonie mobile

Pages

CONNEXION UTILISATEUR