Linus Torvald veut un ordinateur portable ARM en 2016

Nicolas Furno |

Le créateur du noyau Linux était sur la scène de la conférence LinuxCon Europe 2015 qui se tenait à Dublin du 5 au 7 octobre. À cette occasion, Linus Torvald a vanté les mérites d’ARM et même lancé une prédiction : « 2016 sera l’année des ordinateurs portables ARM. » Son interlocuteur sur scène, Dirk Hohndel qui est en charge de Linux et de l’Open Source chez Intel, a certainement apprécié la réponse…

Linus Torvald (Krd CC BY-SA 3.0)

Linus Torvald prend peut-être ses désirs pour des réalités, mais il faut reconnaître que les puces ARM ont fait d’énormes progrès ces dernières années, au point que l’hypothèse n’a rien d’absurde. L’Apple A9 qui équipe les iPhone 6s est au niveau du MacBook Retina, à tel point que l’on peut plus que jamais envisager un Mac ARM. Le constructeur pourrait facilement créer une version gonflée de son processeur — c’est déjà le cas pour l’iPad après tout — et obtenir un Mac suffisamment puissant pour la majorité des utilisateurs.

La possibilité de portables Linux sous ARM est encore plus logique. Il existe en effet d’ores et déjà de nombreuses distributions parfaitement adaptées à ARM et même s’il subsiste quelques incompatibilités logicielles ici ou là, on imagine que la transition devrait être assez simple.

Alors est-ce que les processeurs ARM s’imposeront en 2016 ? Peut-être pas pour monsieur tout le monde, peut-être pas dans tous les Mac, mais il semble acquis que des ordinateurs portables en seront équipés. Et pas des Chromebook allégés, mais bien des appareils capables de concurrencer les modèles x86 sans avoir à rougir.

Source
avatar fousfous | 

Sachant que l'iPad pro est plus puissant qu'un MacBook Pro core i7 13" je ne vois pas où serait le problème pour l'adoption de l'ARM sur Mac.

avatar Ducletho | 

@fousfous :
Je suis surpris de ce que tu avances concernant le i7...tu es sûr de ce que tu avances ?

avatar fousfous | 

@Ducletho :
Bah regarde sur geekbench mais les bicoeurs sont rattrapé par les iPhone.

Et pour les apps il suffira d'avoir un deuxième Rosetta, sachant que beaucoup d'Apps peuvent passer à l'ARM facilement ça ne posera normalement pas trop de problème. Surtout avec le gain de puissance.

avatar Ducletho | 

@fousfous :
Tu parles des bi cœurs des MacBook Air. Car les i7 des MacBook Pro sont des quad....

avatar C1rc3@0rc | 

Il va falloir attendre d'evaluer les performances de lA9x et surtout de voir comment il est construit. S'il est bi-core, tri-core, quadri-core, pour l'instant on a que les premieres evalutations tres partielles de l'A9 des iPhone pour le reste on ne sait pas grand chose.

Ce que l'on sait c'est qu'un iPad 2 est plus puissant qu'un MBA de 2011/2012 et dans certains cas il serait meme plus puissant que les MBA actuels. On sait aussi que l'A8x se positionne entre un bicore Core i3 et core i5 actuel.

Apres il faudra voir ce que donne un A9 ou un A10 quadri, mais ce qui est certain c'est que l'architecture ARM est plus performante que le x86 a nombre de core egaux et que l'exploitation multicore est moins limite sur un ARM que sur un x86.
On ne reviendra pas sur la performance par watt de l’architecture ARM, qui est aujourd'hui reconnu et fait consensus, alors que les manipulations de définition du SDP/TDP par Intel ont provoqué l'indignation de la presse spécialisée!

Ce qu'il faut relever ici, c'est que le créateur de Linux veut des PC ARM grand public et que cette demande n'est pas un effet de mode ni du marketing, cela vient d'un des meilleurs "utilisateurs" de microprocesseur (ecrire un OS comme Linux demande une connaissance extensive du processeur theorique ET pratique), et qui plus est promoteur de l'opensource.

Reste plus qu'a attendre qu'Apple lance le premier PC ARM grand public...

avatar Stardustxxx | 

@C1rc3@0rc
Je ne sais pas d'ou tu sors tes infos, mais tu racontes plein de choses inexactes, il faudrait mettre tes connaissances a jour.

Pour ce qui est du soit disant avantage de l'architecture ARM, je te conseille de lire ca :
http://research.cs.wisc.edu/vertical/papers/2013/hpca13-isa-power-strugg...
Leur conclusion : Our methodical investigation demonstrates the role of ISA in modern microprocessors’ performance and energy efficiency. We find that ARM and x86 processors are simply engineering design points optimized for different levels of performance, and there is nothing fundamentally more energy efficient in one ISA class or the other. The ISA being RISC or CISC seems irrelevant.

Ou bien cet article est assez interessant aussi : http://www.extremetech.com/computing/144778-atom-vs-cortex-a15-vs-krait-...
Un Atom est comparé a un Tegra 3 et un Exynos 5, le vainqueur n'est pas ARM...

"l'exploitation multicore est moins limite sur un ARM que sur un x86"
Ca veut dire quoi ?
ARM suit le un modele memoire weak, alors que x86 est sur un modele memoire stong. Sans rentrer dans les détails, mais avec un modele memoire weak, il faut rajouter des fences ou des barriers memoire pour la synchronisation des caches entre les cores, ce qui complique le code et oblige le compilo a être très prudent. D'ailleurs ARM a rajouté le support pour un modele memoire fort (strong memory model) avec ARMv8.

Des PC ARM ca existe deja sur le marché, on trouve des Chromebook ARM : http://armdevices.net/category/laptops/

avatar C1rc3@0rc | 

@Stardustxxx

Le fait est que l'argument est vieux et se démonte assez vite: il faut lires les commentaires des articles!
Deja, les ARM sont plus souples, moins chers, plus évolutifs et soumis a concurence.

Il est vrai que les x86 sont aujourd'hui des CISC qui tournent sur des moteurs RISC.
Ca implique 2 couches en plus pour traiter les instructions: CISC => RISC => execution => RISC-CISC. C'est de l’émulation matérielle.
Intel tente de réduire le handicap des aller-retour RISC - CISC (les pipelines, l’ordonnanceur/compilo JIT) , mais il y a un cout en temps et en énergie, absent sur les RISC!

Également, les instructions CISC sont de massivement de longueur variables: elles nécessitent un nombre variable de cycles de traitement, ce qui la aussi a un cout.

Et toujours plus d'instructions CISC sont traitées par des coprocesseurs (nommées par Intel "processor unit") intégrés sur la puce (les x86 sont des SoC...).
Donc le core gère toujours moins de choses et ce sont des unités spécialisées qui prennent en charges ces instructions, Intel ayant appris a éteindre les unités non exploitées pour baisser "artificiellement" la consommation... de meme que les core (throttle)!

Globalement si l’efficacité énergétique a progressé sur les ARM en 5 ans (ips), celle des core x86 stagne.

Sur les RISC, ce qui repond a ta 2eme remarque, l'optimisation du traitement est effectivement de la responsabilité du programmeur. Mais puisque il code massivement en langages de haut niveau fortement typé, la complexité est en fait gérée par le compilateur, et aujourd'hui ils sont diaboliquement efficaces.
Sur le x86 c'est le processeur qui fait de la "compilation a la volée".

Finalement les ARM évoluent très vite (puissance et consommation), et s'ils sont encore loin des astuces d'hyper optimisation des x86, leurs marges de progressions sont énormes alors que le x86 est a bout de souffle.

Et les chromebook sont des Netbook, pas des vrais PC...

avatar Stardustxxx | 

@C1rc3@0rc
"Le fait est que l'argument est vieux et se démonte assez vite: il faut lires les commentaires des articles!"

L'argument est vieux, ok. Mais c'est quoi l'argument ? RISC vs CISC est un débat des années 90, les processeurs modernes utlisent des techniques des 2.

"Également, les instructions CISC sont de massivement de longueur variables: elles nécessitent un nombre variable de cycles de traitement, ce qui la aussi a un cout..

Et sur RISC, tu as besoin de plus d'instructions pour faire la meme chose, et tu as des probleme de localité des données. C'est une histoire de tradeoff comme toujours.

"Et toujours plus d'instructions CISC sont traitées par des coprocesseurs (nommées par Intel "processor unit") intégrés sur la puce (les x86 sont des SoC...)."
C'est faux.

Les instructions x86 sont traité sur le processeur, c'est quoi cette histoire de coproc, il y a un etage qui convertit les instructions x86 en micro ops. il y a meme de la fusion de micro ops.
La profondeur d'un pipeline sur x86 est autour de 14/19, ton decodage x86 -> micro ops, c'est un etage... Le performance hit est faible.
L'acces memoire est ce qui est critique dans un processeur, car si tes données ne sont pas en cache, tu peux perdre 200 a 300 cycles d'horloge a attendre les données, et pendant ce temps ton CPU glande.

"Sur les RISC, ce qui repond a ta 2eme remarque, l'optimisation du traitement est effectivement de la responsabilité du programmeur. Mais puisque il code massivement en langages de haut niveau fortement typé, la complexité est en fait gérée par le compilateur, et aujourd'hui ils sont diaboliquement efficaces.
Sur le x86 c'est le processeur qui fait de la "compilation a la volée"."
Euh, ma deuxieme remarque n'a rien a voir avec le RISC... On parle du modele memoire pas des instructions du CPU...
Qaund tu es obligé de mettre des fences ou des memory barrier, ca veut dire que ton code va s'arreter le temps de synchroniser les caches, et baisse de perf.

avatar C1rc3@0rc | 

«Les instructions x86 sont traité sur le processeur, c'est quoi cette histoire de coproc,»

Ca te sembles pas etrange que les x86 soient devenu des SoC ?
Je le répète, un processeur x86 aujourd'hui c'est plus un ensemble de "coprocesseurs" que des core et un ordonnanceur... bref, si tu comptes tout ce qui passe directement dans des coprocesseur(dont la plupart ont des architectures opposés au CISC... ) et que les core x86 ne voient jamais, en fait que reste-t-il du x86? Pas grand chose mais ce pas grand chose reste handicapant.

avatar Hideyasu | 

@Ducletho :
Le pro Retina 13" est bien un bicoeur.

avatar MarcassinBimbo | 

@fousfous :
Tout simplement l'offre logicielle. Adopter une puce à base de cœurs ARM signifie jeter toutes les applications et les recompiler une par une... Et c'est aussi créer une confusion supplémentaire dans l'esprit des utilisateurs comme ca avait déjà été le cas lors du passer PowerPC à x86. Pourtant, à ce moment là, le gain de puissance permettait d'émuler l'ISA PowerPC (Rosetta) et de conserver un semblant de continuité, ce qui semble compliqué dans la configuration décrite.
Quoi qu'il en soit, l'architecture ARM gagne définitivement du terrain sur x86 (cf. La News du jour au sujet de Qualcomm qui lance officiellement une plateforme Serveur à base de SoC ARM)

avatar Lopokova Lydia | 

@MarcassinBimbo

Le portage d'une application moderne est bien plus simple que par le passé et de très loin.

Ce n'est pas un réel frein.

avatar C1rc3@0rc | 

+1
Rappelons que cote Apple, iOS et Mac OS X divergent de 5% et que ces 5% sont lié a la gestion de l'interface graphique et aux fonctions de telephonie, des éléments qui sont presque indépendants du processeur.

Ajoutons aussi qu'aujourd'hui l’écrasante majorite des programmeur travaillent avec des langages de haut niveau, qui masquent complètement l'architecture du processeur, et qu'une bonne majorité ne sait meme pas programmer avec un langage de bas niveau (ou au moins avec les structures syntaxiques de bas niveau) et qu'ils ne touchent meme plus a la gestion de la memoire...

Bref pour beaucoup de soft, le passage de x86 a ARM ca va etre une case a cocher dans Xcode et mettre le résultat de la compilation sur le MacAppStore....

avatar Hideyasu | 

@MarcassinBimbo :
Tout recréer oui et non, il y a déjà toutes les Applications iPhone et iPad pour Arm. Dont office, des apps Adobe etc. Alors faudra sûrement les adaptés aux plus grands écrans ou rajouter des fonctionnalités mais je pense que le gros du travail est fait.

avatar k43l | 

Je t'invite à comparer :
- un ipad Air 2 A8X (tricore, 1.5ghz) https://browser.primatelabs.com/geekbench3/3789985
avec
- un macbook 2k15 (dualcore 1.2ghz) https://browser.primatelabs.com/geekbench3/3790864

Les deux sont passif, les deux sont comparable.

Et je t'invite surtout à ne pas regarder le score brut, mais applicatif. Parce que oui le score brut c'est bien mais à ce moment intel perdrait face au AMD X8... Or ce n'est pas du tout le cas !

De l'eau va couler sous les ponts avant qu'un processeur ARM dépasse un processeur "i" mobile. Par compte pour ce qui est des processeurs "M" c'est possible. Mais intel aussi avance !

avatar TmrFromNO | 

ARM ne comblera jamais l'écart actuel, c'est impossible.
C'est Intel en face, et ils sont loin de rester inactifs.

D'après Microsoft, les processeurs Skylake de leur nouveau Book permettent de gagner 2h d'autonomie ... donc bon, va falloir qu'ils cravachent ferme chez ARM parce qu'avant de concurrencer les quad core, ils ont intérêt à se lever tôt.

Puis même, ça parle à personne. Ils auront beau s'améliorer, 99% de gens vont continuer d'associer les ordinateurs à Intel, c'est comme ça, c'est ancré, et personne pourra faire changer ça. Intel ça parle à tout le monde depuis 40 ans, avant de les faire plier et se s'imposer dans le grand public, y'a un gouffre.

avatar fousfous | 

@TmrFromNO :
Regarde la puissance brute et tu verras que les processeurs Intel ne sont plus très loin.
Et il ne faut pas oublier qu'ils ont aussi une enveloppe thermique de plusieurs dizaines de watts, contrairement aux processeurs ARM, ce qui veut dire qu'on peut augmenter facilement leur puissance.

Et les MBPR 13" sont bicoeurs hein.

avatar TmrFromNO | 

C'est vrai qu'Intel a cessé toute activité depuis 3 ans, j'avais oublié; ils ne conçoivent plus rien.

avatar fousfous | 

@TmrFromNO :
Bah mon MBPR 13" i7 de 2013 est à peine dépassé en puissance par le 2015...

avatar C1rc3@0rc | 

@TmrFromNO

«C'est vrai qu'Intel a cessé toute activité depuis 3 ans, j'avais oublié; ils ne conçoivent plus rien.»
Ben depuis trois ans ils ont depensé des sommes vraiment astronomiques pour mettre sur le marché les premiers la gravure en 14nm, faisant l'impasse du 20nm ou du 18nm ou du 16nm, esperant que le passage de 22nm a 14nm aller miraculeusement ressuciter le vieux x86. Non seulement ils se sont fait griller par Samsung, mais en plus la gravure 14nm montre qu'elle n'apporte rien comme benefice, mais qu'en plus elle peut meme faire une reculade en terme de performance et de consommation!

ARM ne comblera jamais l'écart actuel, c'est impossible.
Non seulement c'est fait depuis un moment, mais en plus maintenant ARM creuse l’écart dans l'autre sens. Si on parle de l'efficacité énergétique, ARM creuse encore plus l'ecart et le x86 ne pourra jamais le rattraper, c'est mecaniquement impossible...

«Intel ça parle à tout le monde depuis 40 ans, avant de les faire plier et se s'imposer dans le grand public, y'a un gouffre»
ça fati 40 ans que le x86 entraine pas mal de monde dans le goufre surtout. ARM est un des rares a avoir survecu. Faut rappeler qu'ARM c'est une petite boite anglaise des debut des annees 80 qui a construit pendant des annees une reputation de fiabilité et d'efficacité avec des processeurs embarqués qui ont fini par depasser tout le reste, a commencer par les x86, et cela avec des milliers de fois moins de moyens financiers qu'Intel

Faut aussi rappeler que le x86 est le resultat de la politique monopolistique du monstre bicepahle Intel/Microsoft, nommé Wintel, qui a ete imposé par des strategies commerciales vicieuses et multi condamné. Donc c'est pas une reussite technologique mais financiere et commerciale.

Et puis il y a un argument que tu oublis: ARM c'est des dizaines de concurrents de très haut niveau, plusieurs fondeurs,...
le x86 c'est 99% Intel, sans concurence reelle, qui impose les tarifs qu'il veut!

avatar Stardustxxx | 

@C1rc3@0rc
"Non seulement c'est fait depuis un moment, mais en plus maintenant ARM creuse l’écart dans l'autre sens. Si on parle de l'efficacité énergétique, ARM creuse encore plus l'ecart et le x86 ne pourra jamais le rattraper, c'est mecaniquement impossible..."

C'est faux. Lis : http://research.cs.wisc.edu/vertical/papers/2013/hpca13-isa-power-strugg...

"Ben depuis trois ans ils ont depensé des sommes vraiment astronomiques pour mettre sur le marché les premiers la gravure en 14nm, faisant l'impasse du 20nm ou du 18nm ou du 16nm, esperant que le passage de 22nm a 14nm aller miraculeusement ressuciter le vieux x86. Non seulement ils se sont fait griller par Samsung, mais en plus la gravure 14nm montre qu'elle n'apporte rien comme benefice, mais qu'en plus elle peut meme faire une reculade en terme de performance et de consommation!"

Intel n'a pas fait d'impasse sur le 20 le 18 ou le 16... Les nodes "officielles" sont définis par l'ITRS et globalement acceptés par tout le monde. Donc pour pouvoir appeler son node 28, 22 ou 14nm, il faut être dans les clous définis par l'ITRS sauf à vouloir s'attirer la foudre de pas mal de monde.
A savoir que l'ITRS défini assez peu de nodes, 45, 32, 22, 14, 10, 7 et le 5nm.
16 ou 20 nm sont considéré comme des Half-Nodes.

J'aimerai savoir comment Samsung a grillé Intel sur le 14 nm. Intel a le meilleur process en terme de densité a 14 nm, et les Intel 14nm sont déja sur le marché.

Le 14 nm n'est pas une reculade en terme de performance ou de consommation. D'ailleurs sur quoi te bases tu pour faire ce genre d'affirmation gratuite et inexacte.

avatar C1rc3@0rc | 

@Stardustxxx

«Intel n'a pas fait d'impasse sur le 20 le 18 ou le 16»
Si! Les autres fondeurs ont bel et bien fait du 20 nm et 16nm.
Samsung s'est lancé dans le 14nm est a réussi a avoir des taux de déchets plus faibles qu'Intel. Intel s'est embourbé dans le 14nm avec la pantalonnade de Broadwell, et preuve en est de la sortie prématurée des Core M qu'Intel a du retirer du marché en catastrophe après les évaluations désastreuses des premiers hybrides affligés des Core M.

«Le 14 nm n'est pas une reculade en terme de performance ou de consommation»
Si!
Intel a connu la pire galere de son histoire pour arriver a stabiliser la production en 14nm, ça lui a couté une fortune et cela a ateint son image. Et cela pour un resultat nul, avec Broadwell, qui s'il n'a pas ete totalement annulé a été fortement restreint!
Skylake qui est un travail important sur l'architecture se permet un petit gain se performance et de consommation, donc rien a voir avec la gravure!

On voit aussi qu'entre les 14 nm de Samsung et les 16nm de TSMC, pour la meme architecture et le meme design le 16nm est plus efficace. Ok il va falloir attendre les évaluations en profondeurs pour en savoir plus, mais c'est deja un fait.

Maintenant la question qui tue:
Skylake gravé en 22nm aurait quel gain par rapport a Haswell? 10%, 15% ?
Pire Haswell en 14 nm serait a quel niveau par rapport a Haswell en 22nm?
Et l'A9 gravé en 20nm aurait quel gain par rapport a l'A8? probablement le meme qu'en 16nm.

Car la est la vrai question, on sait que depuis le passage sous les 32 nm le gain lie a la gravure devient négligeable voire il s'inverse. Alors au meme niveau de gravure quel est le gain réalisé uniquement avec le design.

De ce cote on peut regarder NVidia, qui a fait la démonstration implacable avec une optimisation énorme avec un doublement de l'efficacité énergétique entre la GM204 et la GK104, tout en restant sur le 28nm!

avatar k43l | 

Donc toi si je comprends bien tu remets en cause le principe de l'informatique... lol
Il faut comprendre une chose. Intel fonctionne en deux temps. La stratégie tic - tac (tick tock)
Tac est le changement d'architecture et Tic le changement de finesse de gravure.

Donc Haswell en 22nm c'est la même archi que Broadwell en 14nm.
D'ailleurs pour ce repérer Intel a eu l'idée de faire des nom proches pour marquer les générations. Sandy bridge - Ivy bridge. Haswell - Broadwell. Skylake - Skymont.

Donc tu veux comparer haswell 22 - 14nm tu peux lol...

De plus sais tu à quoi sert le changement de taille de gravure? A te lire je ne crois pas. Personne ne le fait pour le plaisir. Ca coute chère, il y a de nombreuse perte.
Mais son apport lui n'est pas du tout négligeable.

Sinon pourquoi toute les entreprises en ferait une bataille ?

Il suffit maintenant de voir les die map. Le processeur n'est plus le gros qui prenait toute la place. C'est la partie graphique qui occupe plus de 60% de la place.
Le nombre de transistor explose aussi grâce à la finesse de gravure. Même ci ce n'est pas un gage de supériorité, ce sont des instructions en plus prise en compte par les processeurs.

Si les processeurs se contentait d'être uniquement des processeurs, la consommation serait beaucoup plus basse. Mais la partie graphique est toujours plus grosse, pour justement des besoins toujours plus important.

avatar Lopokova Lydia | 

@k43l

"si je comprends bien"

C'est peut être effectivement le point à creuser.

" tu remets en cause le principe de l'informatique"

Qui est ?

C'est intéressant ça "le principe fondamental de l'informatique" vraiment curieux de le connaitre.

Pour le reste tu es bien loin du niveau de connaissance et de pertinence de C1rc3@0rc sur ces question.

Ce n'est pas la question d'être d'accord ou pas, juste de porter des propos qui font sens.

avatar Stardustxxx | 

@Lopokova Lydia
"Pour le reste tu es bien loin du niveau de connaissance et de pertinence de C1rc3@0rc sur ces question."

Bien au contraire.

"Ce n'est pas la question d'être d'accord ou pas, juste de porter des propos qui font sens."

Non la question est de porter des propos qui sont exact. C'est facile de raconter n'importe quoi.

Et quand on veut démontrer un point, on cite des sources. Ou bien on annonce son niveau d'expertise professionel.
Je peux citer plusieurs articles de site sérieux : Anandtech, ExtremeTech, TomsHardware ou Ars Technica, qui démontre que l'ARM n'est pas intrinséquement plus efficace que x86 :
http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-...
http://www.anandtech.com/show/6529/busting-the-x86-power-myth-indepth-cl...
http://www.tomshardware.com/reviews/atom-z2760-power-consumption-arm,338...

Ou bien si on veut s'éduquer sur les processeurs modernes : http://www.lighterra.com/papers/modernmicroprocessors/

Bref, tu peux me montrer que j'ai tort, que mes connaissances sont inexactes, mais ce n'est pas en faisant une déclamation sans sources que tu arriveras a me convaincre.

Et quand on dit "«Intel n'a pas fait d'impasse sur le 20 le 18 ou le 16»
Si! Les autres fondeurs ont bel et bien fait du 20 nm et 16nm."
TSMC n'a pas fait de 22 nm ou du 14 nm, mais a choisi le 20nm et le 16nm. Ils ont fait des impasses eux aussi ?
Il faut m'expliquer quel est l'intéret a Intel d'avoir developper le 22 nm, puis de passer a 20 nm... Ca n'a pas de sens économiquement.
Infos sur les nodes : https://en.wikipedia.org/wiki/Die_shrink#Half-shrink

Pages

CONNEXION UTILISATEUR