Linus Torvald veut un ordinateur portable ARM en 2016

Nicolas Furno |

Le créateur du noyau Linux était sur la scène de la conférence LinuxCon Europe 2015 qui se tenait à Dublin du 5 au 7 octobre. À cette occasion, Linus Torvald a vanté les mérites d’ARM et même lancé une prédiction : « 2016 sera l’année des ordinateurs portables ARM. » Son interlocuteur sur scène, Dirk Hohndel qui est en charge de Linux et de l’Open Source chez Intel, a certainement apprécié la réponse…

Linus Torvald (Krd CC BY-SA 3.0)

Linus Torvald prend peut-être ses désirs pour des réalités, mais il faut reconnaître que les puces ARM ont fait d’énormes progrès ces dernières années, au point que l’hypothèse n’a rien d’absurde. L’Apple A9 qui équipe les iPhone 6s est au niveau du MacBook Retina, à tel point que l’on peut plus que jamais envisager un Mac ARM. Le constructeur pourrait facilement créer une version gonflée de son processeur — c’est déjà le cas pour l’iPad après tout — et obtenir un Mac suffisamment puissant pour la majorité des utilisateurs.

La possibilité de portables Linux sous ARM est encore plus logique. Il existe en effet d’ores et déjà de nombreuses distributions parfaitement adaptées à ARM et même s’il subsiste quelques incompatibilités logicielles ici ou là, on imagine que la transition devrait être assez simple.

Alors est-ce que les processeurs ARM s’imposeront en 2016 ? Peut-être pas pour monsieur tout le monde, peut-être pas dans tous les Mac, mais il semble acquis que des ordinateurs portables en seront équipés. Et pas des Chromebook allégés, mais bien des appareils capables de concurrencer les modèles x86 sans avoir à rougir.


Source
avatar fousfous | 

Sachant que l'iPad pro est plus puissant qu'un MacBook Pro core i7 13" je ne vois pas où serait le problème pour l'adoption de l'ARM sur Mac.

avatar Ducletho | 

@fousfous :
Je suis surpris de ce que tu avances concernant le i7...tu es sûr de ce que tu avances ?

avatar fousfous | 

@Ducletho :
Bah regarde sur geekbench mais les bicoeurs sont rattrapé par les iPhone.

Et pour les apps il suffira d'avoir un deuxième Rosetta, sachant que beaucoup d'Apps peuvent passer à l'ARM facilement ça ne posera normalement pas trop de problème. Surtout avec le gain de puissance.

avatar Ducletho | 

@fousfous :
Tu parles des bi cœurs des MacBook Air. Car les i7 des MacBook Pro sont des quad....

avatar C1rc3@0rc | 

Il va falloir attendre d'evaluer les performances de lA9x et surtout de voir comment il est construit. S'il est bi-core, tri-core, quadri-core, pour l'instant on a que les premieres evalutations tres partielles de l'A9 des iPhone pour le reste on ne sait pas grand chose.

Ce que l'on sait c'est qu'un iPad 2 est plus puissant qu'un MBA de 2011/2012 et dans certains cas il serait meme plus puissant que les MBA actuels. On sait aussi que l'A8x se positionne entre un bicore Core i3 et core i5 actuel.

Apres il faudra voir ce que donne un A9 ou un A10 quadri, mais ce qui est certain c'est que l'architecture ARM est plus performante que le x86 a nombre de core egaux et que l'exploitation multicore est moins limite sur un ARM que sur un x86.
On ne reviendra pas sur la performance par watt de l’architecture ARM, qui est aujourd'hui reconnu et fait consensus, alors que les manipulations de définition du SDP/TDP par Intel ont provoqué l'indignation de la presse spécialisée!

Ce qu'il faut relever ici, c'est que le créateur de Linux veut des PC ARM grand public et que cette demande n'est pas un effet de mode ni du marketing, cela vient d'un des meilleurs "utilisateurs" de microprocesseur (ecrire un OS comme Linux demande une connaissance extensive du processeur theorique ET pratique), et qui plus est promoteur de l'opensource.

Reste plus qu'a attendre qu'Apple lance le premier PC ARM grand public...

avatar Stardustxxx | 

@C1rc3@0rc
Je ne sais pas d'ou tu sors tes infos, mais tu racontes plein de choses inexactes, il faudrait mettre tes connaissances a jour.

Pour ce qui est du soit disant avantage de l'architecture ARM, je te conseille de lire ca :
http://research.cs.wisc.edu/vertical/papers/2013/hpca13-isa-power-struggles.pdf
Leur conclusion : Our methodical investigation demonstrates the role of ISA in modern microprocessors’ performance and energy efficiency. We find that ARM and x86 processors are simply engineering design points optimized for different levels of performance, and there is nothing fundamentally more energy efficient in one ISA class or the other. The ISA being RISC or CISC seems irrelevant.

Ou bien cet article est assez interessant aussi : http://www.extremetech.com/computing/144778-atom-vs-cortex-a15-vs-krait-vs-tegra-3-which-mobile-cpu-is-the-most-power-efficient
Un Atom est comparé a un Tegra 3 et un Exynos 5, le vainqueur n'est pas ARM...

"l'exploitation multicore est moins limite sur un ARM que sur un x86"
Ca veut dire quoi ?
ARM suit le un modele memoire weak, alors que x86 est sur un modele memoire stong. Sans rentrer dans les détails, mais avec un modele memoire weak, il faut rajouter des fences ou des barriers memoire pour la synchronisation des caches entre les cores, ce qui complique le code et oblige le compilo a être très prudent. D'ailleurs ARM a rajouté le support pour un modele memoire fort (strong memory model) avec ARMv8.

Des PC ARM ca existe deja sur le marché, on trouve des Chromebook ARM : http://armdevices.net/category/laptops/

avatar C1rc3@0rc | 

@Stardustxxx

Le fait est que l'argument est vieux et se démonte assez vite: il faut lires les commentaires des articles!
Deja, les ARM sont plus souples, moins chers, plus évolutifs et soumis a concurence.

Il est vrai que les x86 sont aujourd'hui des CISC qui tournent sur des moteurs RISC.
Ca implique 2 couches en plus pour traiter les instructions: CISC => RISC => execution => RISC-CISC. C'est de l’émulation matérielle.
Intel tente de réduire le handicap des aller-retour RISC - CISC (les pipelines, l’ordonnanceur/compilo JIT) , mais il y a un cout en temps et en énergie, absent sur les RISC!

Également, les instructions CISC sont de massivement de longueur variables: elles nécessitent un nombre variable de cycles de traitement, ce qui la aussi a un cout.

Et toujours plus d'instructions CISC sont traitées par des coprocesseurs (nommées par Intel "processor unit") intégrés sur la puce (les x86 sont des SoC...).
Donc le core gère toujours moins de choses et ce sont des unités spécialisées qui prennent en charges ces instructions, Intel ayant appris a éteindre les unités non exploitées pour baisser "artificiellement" la consommation... de meme que les core (throttle)!

Globalement si l’efficacité énergétique a progressé sur les ARM en 5 ans (ips), celle des core x86 stagne.

Sur les RISC, ce qui repond a ta 2eme remarque, l'optimisation du traitement est effectivement de la responsabilité du programmeur. Mais puisque il code massivement en langages de haut niveau fortement typé, la complexité est en fait gérée par le compilateur, et aujourd'hui ils sont diaboliquement efficaces.
Sur le x86 c'est le processeur qui fait de la "compilation a la volée".

Finalement les ARM évoluent très vite (puissance et consommation), et s'ils sont encore loin des astuces d'hyper optimisation des x86, leurs marges de progressions sont énormes alors que le x86 est a bout de souffle.

Et les chromebook sont des Netbook, pas des vrais PC...

avatar Stardustxxx | 

@C1rc3@0rc
"Le fait est que l'argument est vieux et se démonte assez vite: il faut lires les commentaires des articles!"

L'argument est vieux, ok. Mais c'est quoi l'argument ? RISC vs CISC est un débat des années 90, les processeurs modernes utlisent des techniques des 2.

"Également, les instructions CISC sont de massivement de longueur variables: elles nécessitent un nombre variable de cycles de traitement, ce qui la aussi a un cout..

Et sur RISC, tu as besoin de plus d'instructions pour faire la meme chose, et tu as des probleme de localité des données. C'est une histoire de tradeoff comme toujours.

"Et toujours plus d'instructions CISC sont traitées par des coprocesseurs (nommées par Intel "processor unit") intégrés sur la puce (les x86 sont des SoC...)."
C'est faux.

Les instructions x86 sont traité sur le processeur, c'est quoi cette histoire de coproc, il y a un etage qui convertit les instructions x86 en micro ops. il y a meme de la fusion de micro ops.
La profondeur d'un pipeline sur x86 est autour de 14/19, ton decodage x86 -> micro ops, c'est un etage... Le performance hit est faible.
L'acces memoire est ce qui est critique dans un processeur, car si tes données ne sont pas en cache, tu peux perdre 200 a 300 cycles d'horloge a attendre les données, et pendant ce temps ton CPU glande.

"Sur les RISC, ce qui repond a ta 2eme remarque, l'optimisation du traitement est effectivement de la responsabilité du programmeur. Mais puisque il code massivement en langages de haut niveau fortement typé, la complexité est en fait gérée par le compilateur, et aujourd'hui ils sont diaboliquement efficaces.
Sur le x86 c'est le processeur qui fait de la "compilation a la volée"."
Euh, ma deuxieme remarque n'a rien a voir avec le RISC... On parle du modele memoire pas des instructions du CPU...
Qaund tu es obligé de mettre des fences ou des memory barrier, ca veut dire que ton code va s'arreter le temps de synchroniser les caches, et baisse de perf.

avatar C1rc3@0rc | 

«Les instructions x86 sont traité sur le processeur, c'est quoi cette histoire de coproc,»

Ca te sembles pas etrange que les x86 soient devenu des SoC ?
Je le répète, un processeur x86 aujourd'hui c'est plus un ensemble de "coprocesseurs" que des core et un ordonnanceur... bref, si tu comptes tout ce qui passe directement dans des coprocesseur(dont la plupart ont des architectures opposés au CISC... ) et que les core x86 ne voient jamais, en fait que reste-t-il du x86? Pas grand chose mais ce pas grand chose reste handicapant.

avatar Hideyasu | 

@Ducletho :
Le pro Retina 13" est bien un bicoeur.

avatar MarcassinBimbo | 

@fousfous :
Tout simplement l'offre logicielle. Adopter une puce à base de cœurs ARM signifie jeter toutes les applications et les recompiler une par une... Et c'est aussi créer une confusion supplémentaire dans l'esprit des utilisateurs comme ca avait déjà été le cas lors du passer PowerPC à x86. Pourtant, à ce moment là, le gain de puissance permettait d'émuler l'ISA PowerPC (Rosetta) et de conserver un semblant de continuité, ce qui semble compliqué dans la configuration décrite.
Quoi qu'il en soit, l'architecture ARM gagne définitivement du terrain sur x86 (cf. La News du jour au sujet de Qualcomm qui lance officiellement une plateforme Serveur à base de SoC ARM)

avatar Lopokova Lydia | 

@MarcassinBimbo

Le portage d'une application moderne est bien plus simple que par le passé et de très loin.

Ce n'est pas un réel frein.

avatar C1rc3@0rc | 

+1
Rappelons que cote Apple, iOS et Mac OS X divergent de 5% et que ces 5% sont lié a la gestion de l'interface graphique et aux fonctions de telephonie, des éléments qui sont presque indépendants du processeur.

Ajoutons aussi qu'aujourd'hui l’écrasante majorite des programmeur travaillent avec des langages de haut niveau, qui masquent complètement l'architecture du processeur, et qu'une bonne majorité ne sait meme pas programmer avec un langage de bas niveau (ou au moins avec les structures syntaxiques de bas niveau) et qu'ils ne touchent meme plus a la gestion de la memoire...

Bref pour beaucoup de soft, le passage de x86 a ARM ca va etre une case a cocher dans Xcode et mettre le résultat de la compilation sur le MacAppStore....

avatar Hideyasu | 

@MarcassinBimbo :
Tout recréer oui et non, il y a déjà toutes les Applications iPhone et iPad pour Arm. Dont office, des apps Adobe etc. Alors faudra sûrement les adaptés aux plus grands écrans ou rajouter des fonctionnalités mais je pense que le gros du travail est fait.

avatar k43l | 

Je t'invite à comparer :
- un ipad Air 2 A8X (tricore, 1.5ghz) https://browser.primatelabs.com/geekbench3/3789985
avec
- un macbook 2k15 (dualcore 1.2ghz) https://browser.primatelabs.com/geekbench3/3790864

Les deux sont passif, les deux sont comparable.

Et je t'invite surtout à ne pas regarder le score brut, mais applicatif. Parce que oui le score brut c'est bien mais à ce moment intel perdrait face au AMD X8... Or ce n'est pas du tout le cas !

De l'eau va couler sous les ponts avant qu'un processeur ARM dépasse un processeur "i" mobile. Par compte pour ce qui est des processeurs "M" c'est possible. Mais intel aussi avance !

avatar TmrFromNO | 

ARM ne comblera jamais l'écart actuel, c'est impossible.
C'est Intel en face, et ils sont loin de rester inactifs.

D'après Microsoft, les processeurs Skylake de leur nouveau Book permettent de gagner 2h d'autonomie ... donc bon, va falloir qu'ils cravachent ferme chez ARM parce qu'avant de concurrencer les quad core, ils ont intérêt à se lever tôt.

Puis même, ça parle à personne. Ils auront beau s'améliorer, 99% de gens vont continuer d'associer les ordinateurs à Intel, c'est comme ça, c'est ancré, et personne pourra faire changer ça. Intel ça parle à tout le monde depuis 40 ans, avant de les faire plier et se s'imposer dans le grand public, y'a un gouffre.

avatar fousfous | 

@TmrFromNO :
Regarde la puissance brute et tu verras que les processeurs Intel ne sont plus très loin.
Et il ne faut pas oublier qu'ils ont aussi une enveloppe thermique de plusieurs dizaines de watts, contrairement aux processeurs ARM, ce qui veut dire qu'on peut augmenter facilement leur puissance.

Et les MBPR 13" sont bicoeurs hein.

avatar TmrFromNO | 

C'est vrai qu'Intel a cessé toute activité depuis 3 ans, j'avais oublié; ils ne conçoivent plus rien.

avatar fousfous | 

@TmrFromNO :
Bah mon MBPR 13" i7 de 2013 est à peine dépassé en puissance par le 2015...

avatar C1rc3@0rc | 

@TmrFromNO

«C'est vrai qu'Intel a cessé toute activité depuis 3 ans, j'avais oublié; ils ne conçoivent plus rien.»
Ben depuis trois ans ils ont depensé des sommes vraiment astronomiques pour mettre sur le marché les premiers la gravure en 14nm, faisant l'impasse du 20nm ou du 18nm ou du 16nm, esperant que le passage de 22nm a 14nm aller miraculeusement ressuciter le vieux x86. Non seulement ils se sont fait griller par Samsung, mais en plus la gravure 14nm montre qu'elle n'apporte rien comme benefice, mais qu'en plus elle peut meme faire une reculade en terme de performance et de consommation!

ARM ne comblera jamais l'écart actuel, c'est impossible.
Non seulement c'est fait depuis un moment, mais en plus maintenant ARM creuse l’écart dans l'autre sens. Si on parle de l'efficacité énergétique, ARM creuse encore plus l'ecart et le x86 ne pourra jamais le rattraper, c'est mecaniquement impossible...

«Intel ça parle à tout le monde depuis 40 ans, avant de les faire plier et se s'imposer dans le grand public, y'a un gouffre»
ça fati 40 ans que le x86 entraine pas mal de monde dans le goufre surtout. ARM est un des rares a avoir survecu. Faut rappeler qu'ARM c'est une petite boite anglaise des debut des annees 80 qui a construit pendant des annees une reputation de fiabilité et d'efficacité avec des processeurs embarqués qui ont fini par depasser tout le reste, a commencer par les x86, et cela avec des milliers de fois moins de moyens financiers qu'Intel

Faut aussi rappeler que le x86 est le resultat de la politique monopolistique du monstre bicepahle Intel/Microsoft, nommé Wintel, qui a ete imposé par des strategies commerciales vicieuses et multi condamné. Donc c'est pas une reussite technologique mais financiere et commerciale.

Et puis il y a un argument que tu oublis: ARM c'est des dizaines de concurrents de très haut niveau, plusieurs fondeurs,...
le x86 c'est 99% Intel, sans concurence reelle, qui impose les tarifs qu'il veut!

avatar Stardustxxx | 

@C1rc3@0rc
"Non seulement c'est fait depuis un moment, mais en plus maintenant ARM creuse l’écart dans l'autre sens. Si on parle de l'efficacité énergétique, ARM creuse encore plus l'ecart et le x86 ne pourra jamais le rattraper, c'est mecaniquement impossible..."

C'est faux. Lis : http://research.cs.wisc.edu/vertical/papers/2013/hpca13-isa-power-struggles.pdf

"Ben depuis trois ans ils ont depensé des sommes vraiment astronomiques pour mettre sur le marché les premiers la gravure en 14nm, faisant l'impasse du 20nm ou du 18nm ou du 16nm, esperant que le passage de 22nm a 14nm aller miraculeusement ressuciter le vieux x86. Non seulement ils se sont fait griller par Samsung, mais en plus la gravure 14nm montre qu'elle n'apporte rien comme benefice, mais qu'en plus elle peut meme faire une reculade en terme de performance et de consommation!"

Intel n'a pas fait d'impasse sur le 20 le 18 ou le 16... Les nodes "officielles" sont définis par l'ITRS et globalement acceptés par tout le monde. Donc pour pouvoir appeler son node 28, 22 ou 14nm, il faut être dans les clous définis par l'ITRS sauf à vouloir s'attirer la foudre de pas mal de monde.
A savoir que l'ITRS défini assez peu de nodes, 45, 32, 22, 14, 10, 7 et le 5nm.
16 ou 20 nm sont considéré comme des Half-Nodes.

J'aimerai savoir comment Samsung a grillé Intel sur le 14 nm. Intel a le meilleur process en terme de densité a 14 nm, et les Intel 14nm sont déja sur le marché.

Le 14 nm n'est pas une reculade en terme de performance ou de consommation. D'ailleurs sur quoi te bases tu pour faire ce genre d'affirmation gratuite et inexacte.

avatar C1rc3@0rc | 

@Stardustxxx

«Intel n'a pas fait d'impasse sur le 20 le 18 ou le 16»
Si! Les autres fondeurs ont bel et bien fait du 20 nm et 16nm.
Samsung s'est lancé dans le 14nm est a réussi a avoir des taux de déchets plus faibles qu'Intel. Intel s'est embourbé dans le 14nm avec la pantalonnade de Broadwell, et preuve en est de la sortie prématurée des Core M qu'Intel a du retirer du marché en catastrophe après les évaluations désastreuses des premiers hybrides affligés des Core M.

«Le 14 nm n'est pas une reculade en terme de performance ou de consommation»
Si!
Intel a connu la pire galere de son histoire pour arriver a stabiliser la production en 14nm, ça lui a couté une fortune et cela a ateint son image. Et cela pour un resultat nul, avec Broadwell, qui s'il n'a pas ete totalement annulé a été fortement restreint!
Skylake qui est un travail important sur l'architecture se permet un petit gain se performance et de consommation, donc rien a voir avec la gravure!

On voit aussi qu'entre les 14 nm de Samsung et les 16nm de TSMC, pour la meme architecture et le meme design le 16nm est plus efficace. Ok il va falloir attendre les évaluations en profondeurs pour en savoir plus, mais c'est deja un fait.

Maintenant la question qui tue:
Skylake gravé en 22nm aurait quel gain par rapport a Haswell? 10%, 15% ?
Pire Haswell en 14 nm serait a quel niveau par rapport a Haswell en 22nm?
Et l'A9 gravé en 20nm aurait quel gain par rapport a l'A8? probablement le meme qu'en 16nm.

Car la est la vrai question, on sait que depuis le passage sous les 32 nm le gain lie a la gravure devient négligeable voire il s'inverse. Alors au meme niveau de gravure quel est le gain réalisé uniquement avec le design.

De ce cote on peut regarder NVidia, qui a fait la démonstration implacable avec une optimisation énorme avec un doublement de l'efficacité énergétique entre la GM204 et la GK104, tout en restant sur le 28nm!

avatar k43l | 

Donc toi si je comprends bien tu remets en cause le principe de l'informatique... lol
Il faut comprendre une chose. Intel fonctionne en deux temps. La stratégie tic - tac (tick tock)
Tac est le changement d'architecture et Tic le changement de finesse de gravure.

Donc Haswell en 22nm c'est la même archi que Broadwell en 14nm.
D'ailleurs pour ce repérer Intel a eu l'idée de faire des nom proches pour marquer les générations. Sandy bridge - Ivy bridge. Haswell - Broadwell. Skylake - Skymont.

Donc tu veux comparer haswell 22 - 14nm tu peux lol...

De plus sais tu à quoi sert le changement de taille de gravure? A te lire je ne crois pas. Personne ne le fait pour le plaisir. Ca coute chère, il y a de nombreuse perte.
Mais son apport lui n'est pas du tout négligeable.

Sinon pourquoi toute les entreprises en ferait une bataille ?

Il suffit maintenant de voir les die map. Le processeur n'est plus le gros qui prenait toute la place. C'est la partie graphique qui occupe plus de 60% de la place.
Le nombre de transistor explose aussi grâce à la finesse de gravure. Même ci ce n'est pas un gage de supériorité, ce sont des instructions en plus prise en compte par les processeurs.

Si les processeurs se contentait d'être uniquement des processeurs, la consommation serait beaucoup plus basse. Mais la partie graphique est toujours plus grosse, pour justement des besoins toujours plus important.

avatar Lopokova Lydia | 

@k43l

"si je comprends bien"

C'est peut être effectivement le point à creuser.

" tu remets en cause le principe de l'informatique"

Qui est ?

C'est intéressant ça "le principe fondamental de l'informatique" vraiment curieux de le connaitre.

Pour le reste tu es bien loin du niveau de connaissance et de pertinence de C1rc3@0rc sur ces question.

Ce n'est pas la question d'être d'accord ou pas, juste de porter des propos qui font sens.

avatar Stardustxxx | 

@Lopokova Lydia
"Pour le reste tu es bien loin du niveau de connaissance et de pertinence de C1rc3@0rc sur ces question."

Bien au contraire.

"Ce n'est pas la question d'être d'accord ou pas, juste de porter des propos qui font sens."

Non la question est de porter des propos qui sont exact. C'est facile de raconter n'importe quoi.

Et quand on veut démontrer un point, on cite des sources. Ou bien on annonce son niveau d'expertise professionel.
Je peux citer plusieurs articles de site sérieux : Anandtech, ExtremeTech, TomsHardware ou Ars Technica, qui démontre que l'ARM n'est pas intrinséquement plus efficace que x86 :
http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient
http://www.anandtech.com/show/6529/busting-the-x86-power-myth-indepth-clover-trail-power-analysis/8
http://www.tomshardware.com/reviews/atom-z2760-power-consumption-arm,3387-5.html

Ou bien si on veut s'éduquer sur les processeurs modernes : http://www.lighterra.com/papers/modernmicroprocessors/

Bref, tu peux me montrer que j'ai tort, que mes connaissances sont inexactes, mais ce n'est pas en faisant une déclamation sans sources que tu arriveras a me convaincre.

Et quand on dit "«Intel n'a pas fait d'impasse sur le 20 le 18 ou le 16»
Si! Les autres fondeurs ont bel et bien fait du 20 nm et 16nm."
TSMC n'a pas fait de 22 nm ou du 14 nm, mais a choisi le 20nm et le 16nm. Ils ont fait des impasses eux aussi ?
Il faut m'expliquer quel est l'intéret a Intel d'avoir developper le 22 nm, puis de passer a 20 nm... Ca n'a pas de sens économiquement.
Infos sur les nodes : https://en.wikipedia.org/wiki/Die_shrink#Half-shrink

avatar Lopokova Lydia | 

@Stardustxxx

Tu n'aurais pas raté une marche ?

Tu réagis ii à des propos qui ne t'étais pas destiné ;-)

Le différent qui t'oppose, finalement sur des points pas si important que cela, à C1rc3@0rc est intéressant à suivre.

avatar Stardustxxx | 

@Lopokova Lydia

Pas du tout. Juste pas envie de répondre 2 fois ;)

Je n'ai pas de différent avec qui que ce soit. Je ne suis pas pro ARM ni pro Intel, ou pro Mac ou Pro Windows. Je les utilise tous. Par contre je sais reconnaitre les forces et les faiblesses de chacun.
Et j'intervient quand quelqu'un raconte des conneries. Le débat RISC-CISC est clos depuis 1999. Je cite EETimes (une référence dans le domaine) : http://www.eetimes.com/author.asp?section_id=36&doc_id=1327016
"If you are one of the few hardware or software developers out there who still think that instruction set architectures, reduced (RISC) or complex (CISC), have any significant effect on the power, energy or performance of your processor-based designs, forget it."
Et cette image resume bien les choses : http://www.eetimes.com/author.asp?section_id=36&doc_id=1327016&image_number=2

De memoire le TDP du A8X est autour de 4.5 W, celui des Core-M Skylake est aussi de 4.5 W... C'est une différence énorme!!!

avatar Lopokova Lydia | 

@Stardustxxx

"Pas du tout. Juste pas envie de répondre 2 fois ;)'

Peut être mais je ne vois vraiment pas en quoi c'est propos sont une réponse aux miens :-)

Je ne me place pas dans la dichotomie CISC/RISC, je n'ai pas affirmée qu'aujourd'hui l'un des modèle apportait un gain substantiel en terme de performance/consommation.

J'ai juste qualifié le modèle de programmation et le jeu d'instruction des x86/x64 d'absolument inélégant, lourds et bordélique. Et cela vaut tout autant en comparaison avec des processeur on ne peut plus CISC tel les VAX ou les 68k à la si agréable orthogonalité.

Intel a au fil du temps développé des trésors d'invention pour suppléer aux lourdeurs de cette héritage mais je crois honnêtement que s'ils avaient la possibilité de partir d'une feuille blanche il ferait table rase de cet héritage.

Bref je n'affirme nullement qu'en 2015 les approches RISC (Et encore le RISC au sens strict est bien rare) font une différence absolue, les enjeux ne sont plus là depuis longtemps, mais simplement que l'héritage que nous nous coltinons est d'une rare inélégance même si cela a fort peu de conséquence pratiques.

avatar Stardustxxx | 

@Lopokova Lydia
Je repondai au fil de réponses, pas aux tiennes en particulier. J'aurais du rajouter un autre @ pour séparer mes réponses. ;)

Nous sommes d'accord sur la dichotomie RISC/CISC.

avatar C1rc3@0rc | 

«Intel a au fil du temps développé des trésors d'invention pour suppléer aux lourdeurs de cette héritage mais je crois honnêtement que s'ils avaient la possibilité de partir d'une feuille blanche il ferait table rase de cet héritage.»

+1
Ils ont même tenté de le faire, enfin les chercheurs et le ingénieurs, parce que les strateges du marketing ont tué toutes les tentatives.
Intel c'est pas que le x86, x86 dont la société est prisonnière et qui en paye le prix avec son absence du secteur mobile -!
Intel c'est aussi l'IA64 et ... ARM! Intel a une licence ARM depuis... un paquet d’années et Intel a (co)produit le successeur du RISC avec l'Itanium.

Seulement voila, les inge d'Intel savent que le x86 est un impasse depuis des années, mais comme 99% des fonds de R&D sont attribués au x86 pour maintenir le monopole, ben les autres approches sont tuées dans l'oeuf.
Cette annee, il faut même assister a l’enterrement de l'Itanium, dont Intel se bat pour intégrer les avancées dans les futurs Xeons Skylake (enfin ça parait reporté pour la prochaine generation vu le retard pris)

«Bref je n'affirme nullement qu'en 2015 les approches RISC (Et encore le RISC au sens strict est bien rare) font une différence absolue, les enjeux ne sont plus là depuis longtemps, mais simplement que l'héritage que nous nous coltinons est d'une rare inélégance même si cela a fort peu de conséquence pratiques.»
Les CISC sont aujourd'hui des surcouches d'emulation sur des RISC, si on se limite a parler des Core. Apres, le x86 n'est plus un processeur depuis le 486, mais c'est devenu un SoC donc les coprocesseurs (pudiquement nommes "unités") compensent les archaïsmes des Core x86, approche reprise aussi des RISC qui ont pour philosophie de faire un minimum de choses mais le plus efficacement possible.

Une grosse diffeence entre le x86 et les RISC c'est la programmation. Tu parles d'élegance, je parlerai aussi d’efficacité.

avatar Stardustxxx | 

@C1rc3@0rc
"Une grosse diffeence entre le x86 et les RISC c'est la programmation. Tu parles d'élegance, je parlerai aussi d’efficacité."
Quelles différences ? Tu programmes différement suivant que tu es sur RISC ou sur CISC!!! Je ne savais pas qu'il y avait une version C pour x86 et une version C pour ARM... C'est le compilateur qui s'occupe de cela. D'ailleurs, le RISC impose plus de travail au compilateur, car il doit éclater des instructions complexes (du C ou autre) en instruction RISC. Pour le CISC, ce boulot ce fait avec du hardware (donc très rapide).

L'élegance en programmation, c'est un beau concept, mais ensuite il y a la réalité.
Petit exemple : Qu'est ce qui est le plus rapide : inserer un élement (a une position aléatoire) dans une liste ou un vecteur ? Tous les profs d'info vont te demander de calculer la complexité pour les 2, et la conclusion est que c'est la liste la plus rapide.
Ensuite, tu fais les tests sur un processeur moderne, et la réalité est que c'est le vecteur qui est nettement plus rapide.
La raison, la localité des données, avec une liste les données ne sont pas contigu, donc l'ALU va passer son temps a attendre que les données soient chargé en cache, avec un vecteur les données sont contigues, et donc les données suivantes sont déja la.
Ce que cela prouve, c'est que tu peux avoir une unité arithmétique ultra rapide, mais si le reste du CPU ne suit pas, cela ne sert a rien, si tu doit attendre 200 a 300 cycles de CPU avant d'avoir tes données, ton ALU peut être en RISC, CISC, EPIC, tu n'ira pas plus loin.

Et pour ton histoire de SoC, tu peux venir avec tes propres définition, je citerai juste Wikipedia la dessus (https://fr.wikipedia.org/wiki/Syst%C3%A8me_sur_une_puce) :
Un système sur une puce est un système complet embarqué sur une seule puce, pouvant comprendre de la mémoire, un ou plusieurs microproc.
Intel Atom destiné au smartphone est un SoC, un core i7 de desktop n'est pas un SoC.

avatar k43l | 

Cher(e) @Lopokova Lydia

Parce que mon commentaire n'est pas technique, qu'il ne t'a pas donné mal à la tête, et que tu as pu le comprendre, je n'ai aucune connaissances et ne suis pas pas pertinent.

C'est un concept intéressant. Chez moi on appelle ça "pissé dans le cerveau des gens". Au lieu de voir clair, tu vois jaune et tout ce qui n'est pas jaune est faux.

Je t'informe que je n'ai pas besoin de rentrer dans le technique pour voir qu'il ne sait pas de quoi il parle. J'ai repris point par point ces arguments, en montrant qu'il y a une raison à tout cela.

D'ailleurs je constate qu'à part t'arrêter sur deux trois citations, tu ne donnes pas d'argument soit pour me contredire, soit pour appuyer tes propos et par la même les propos de @C1rc3@0rc.

Tu ne m'en voudras pas d'être concis et lisible pour 80% des gens qui ont des connaissances basiques, sur un article qui lui aussi s'adresse à ce type de personne.
:)

avatar Lopokova Lydia | 

@k43l

Mon commentaire était plutôt amusé :-)

Tu articule ton propos sur un principe de l'informatique que tu n'annonce pas et qui a ma connaissance n'existe pas.

Donc je ne vois pas où tu veux en venir et ce que tu veux contredire.

Honnêtement, je ne vois pas ce que tes considérations sur les cycle d'Intel et les processus de gravure apporté au débat et quel problématique elle posait.

avatar k43l | 

La loi de Moore. C'est sur ça que repose l'informatique moderne depuis bien son existence.

Bien sur ce n'est pas une loi qui fait foi de tout.
Elle a déjà montré ces limites pour ce qui est de la puissance en terme de Ghz, mais qui est toujours d'actualité sur la finesse de gravure et l'augmentation croissante des transistors.

D'ou la nécessité d'affiné la finesse de gravure pour mettre toujours plus de transistor dans un espace réduit, et par conséquence, bien entendu, amélioré les performances des processeurs.

Qui plus est moi je t'ai rien demander. Je répondais à un commentaire de @C1rc3@0rc qui prouver par "A+zero source que la finesse de gravure "c'est nul".
"C+zéro source" que les procs "M" intel était à la ramasse à cause de la finesse de gravure... (je le rappelle la même que celle des proc A9 et A9X sur 50% des produits, car TMSC n'a pas réussi à stabiliser son processus de production sur le 14nm donc un échec).

Je parle même pas du pseudo débat Risc vs Cisc vs Hybrid qui n'a plus lieu d'être tant maintenant les soft sont au dessus de cela... Manque plus qu'il vante les mérites des Power PC et on aura toucher le fond.

Puis comme tu l'as dis, "Tu n'aurais pas raté une marche ?

Tu réagis à des propos qui ne t'étais pas destiné ;-)"

Et moi je t'en excuse :)

PS : tu peux me remercier pour les principes. Si on ne respect pas celle ci, je vois pas comment on peut vouloir parler technique, connaissance (lol), ou même risc vs cisc quand ce combat n'existe plus depuis aller... 20ans ?

avatar Lopokova Lydia | 

@k43l

Ok tu te référais à la si médiatique loi empirique de Moore quand tu parlé de principe de l'informatique.

Il est dangereux de faire de cette loi empirique un principe fondateur de l'informatique cela est extrêmement réducteur.

Dans l'absolue c'est une question de physique des semi-candi-ucteur et d'industrialisation nullement d'informatique au sens stricte du terme.

Serte nous sommes face à une croissance exponentielle de la quantité de transistor pouvant être intégré sur une surface de semi-conducteur ... mais en suite ?

Ce fait n'est que le substrat de l'évolution pas son moteur, car le véritable enjeu une fois cette croissance assurée est : quoi faire de ce surplus de transistor qui nous est alloué.

Les véritables évolutions vienne de cela, les vrais débat sont là, l'élégance des solutions tout autant.

La loi empirique de Moore peut être assimilée à de la force brute rien de plus.

Tout comme en algorithmique le gain potentiel entre un algorithme trivial et une approche fine est incomparable face à ce que peut apporter la force brut il en est de même ici.

Croire que la loi empire de Moore est le moteur du progrès est très réducteur et assez fallacieux.

Les choses intéressante se passent à un tout autre niveau qui est lui réellement de l'ordre de l'informatique au sens le plus pure du terme et non de la physique des semi-conducteur.

Ce que les physiciens des semi-conducteur nous fait gagner en performance est toujours bien inférieur à ce que les architecte des système nous offrent.

Comme disait Alan Key le hardware c'est du logiciel matérialisé.

Nous parlions de ce type de considérations informatiques et non des processus de fabrication qui ne sont que le bruit de fond de l'évolution de nos systèmes.

avatar Stardustxxx | 

@k43l
"La loi de Moore. C'est sur ça que repose l'informatique moderne depuis bien son existence.

Bien sur ce n'est pas une loi qui fait foi de tout.
Elle a déjà montré ces limites pour ce qui est de la puissance en terme de Ghz, mais qui est toujours d'actualité sur la finesse de gravure et l'augmentation croissante des transistors."

Une petite précision, la loi de moore dit juste que le nombre de transistors double tous les 18 mois.

Ca n'implique rien sur les performances, ou la vitesse du processeur.

avatar Lopokova Lydia | 

@Stardustxxx

Toujours surpris de voir comment ce qui n'est qu'une loi empirique assez triviale est monté en épingle par certain qui y voit l'alpha et l'omega permettant de réduire la technologie à quelques chose de finalement bien simple.

Sans doute le vieux besoin de réduire la complexité via une fausse impression de relative simplicité.

avatar k43l | 

Hahaha je m'y attendais à celle là. On est loin de la loi murphy qui repose sur rien.

Une loi empirique... Mais rappelle moi qu'elles sont les dernières évolution majeur dans l'informatique qui ne vont pas dans ce sens. Jte souhaite bien du courage.

Tant que les limites physique ne seront pas atteinte, la loi moore restera le principe de l'informatique moderne.

Rien ne sert de sortir des citations qui ne sont pas les miennes, pour me donner un semblant d'intelligence et ou de connaissance.
Moi aussi j'ai fais de la philo :)

avatar BeePotato | 

@ k43l : « Tant que les limites physique ne seront pas atteinte, la loi moore restera le principe de l'informatique moderne. »

Comme l’a souligné Lopokova Lydia, ce principe relève plus du monde de l’électronique que de celui de l’informatique.

avatar Lopokova Lydia | 

@BeePotato

D'autant plus que cette loi empirique n'est en rien un principe, les mots ne sont pas vide de sens et ne doivent pas s'employer à la légère.

avatar Lopokova Lydia | 

@k43l

Bon je te laisse à ta pensée magique et à ton culte du cargo.

Désolé de te le dire mais tu avance des ineptie aussi bien d'un point de vu épistémologique qu'au regard de l'histoire de l'informatique.

Mais bon il est clair que tu veux t'accrocher à ce que tu croit être des connaissance maitrisé et qui visiblement ne sont que des compréhension superficielle de notion mal digérée sans aucune capacité à les mettre en perspective.

Désolant, mais banal.

Continu donc à sauter sur ta chaise comme un cabri en répétant comme un mantra la "loi" de Moore ...

avatar Stardustxxx | 

@Lopokova Lydia
La loi de Moore est une observation. Et c'est une bonne indication de ce qui est possible de faire en micro-électronique. Elle est basé sur des observations scientifiques.

Dans ce sens, elle nous donne une vision de ce que la micro-électronique sera. Et elle reste pertinente pour les fondeurs pour investir en recherche tant que les limites physiques ne sont pas atteinte.
Le prix d'une usine de semi-conducteur double tous les 4 ans, donc si tu veux investir, tu es mieux de savoir ou tu va, ca fait 40 ans que cette observation est valide.

Gordon Moore a annoncé en 2007 qu'il restait entre 10 et 15 a la loi de Moore, la fin est proche mais elle reste valade pour les 3 prochaines nodes prévue en gravure : 10, 7 et 5 nm. En dessous c'est l'inconnue, les effets quantiques vont commencer a être important et surtout la gravure devient de plus en plus compliqué.

avatar Lopokova Lydia | 

@Stardustxxx

Je be vois pas trop oú tu veux en vebir avec ce rappel de ce qui, j'ose l'espérer, est bien connu de tout ceux qui participent à notre petite discussion

avatar Stardustxxx | 

@Lopokova Lydia
Vu les conneries dites par certains dans les commentaires, je trouve bien de préciser les choses.

avatar SMDL | 

@Lopokova Lydia :

"culte du cargo."

Un ami aujourd'hui décédé avait choisi ce fantastique sujet pour sa maîtrise. J'invite tous ceux qui ne connaîtraient pas à rencontrer ce qui est en effet un des plus exemples les plus fous de l'emprise de la pensée magique sur l'esprit humain. La création d'une mystique ex nihilo - ou presque ;)

avatar Lopokova Lydia | 

@SMDL

Salut SMDL ça fait plaisir de te lire

Effectivement c'est une histoire absolument fascinante ;-)

avatar Ducletho | 

@fousfous :
Effectivement les 13 pro sont bicoeurs j'avais pas remarqué.

Maintenant, il ne faut pas mettre la charrue avant les bœufs.
Il y a bascule ARM uniquement si toute la gamme osx bascule en arm.
Tant que les xeon ou i7 quad sont seuls à répondre aux besoins de puissance, il serait extrêmement difficile d'introduire une dose d'arm...et puis le core m fait sont boulot

avatar C1rc3@0rc | 

Pourquoi?

Les clients des Xeon octocore ne sont pas ceux des Macbook Air.
Et puis proposer des softs mixtes qui a l'installation determinent sur quel type d'architecture ils se trouvent, c'est aussi simple qu'une case a cocher dans Xcode. Apple l'a deja fait avec la transition PowerPC- x86, aujourd'hui c'est encore plus simple pour le developpeur et le client.

«et puis le Core M fait sont boulot»
Ben non justement, il reprend le lourd héritage d’échec des ATOM, qu'il est censé remplacer a terme.
On est pas prêt de voir des mobiles avec des Core-M, même avec la technologie de refroidissement liquide de Microsoft, c'est même pas envisageable.

Par contre des Macbook Air quad ou hexa A9 et des MacBook Pro octo A10, la c'est tout a fait réaliste...

avatar Ducletho | 

@C1rc3@0rc :

Pour l'histoire juste du bouton radio à cocher, j'y crois moyen, la facilité et la maîtrise apparente masquent souvent un travail complexe. J'imagine que Apple pour développer l'os coche aussi le bouton...j'imagine que les drivers ne poseront aucun souci. J'imagine que pour textedit ou Photoshop, la seule différence sera le temps de compilation après avoir coché le fameux bouton.
Mais je laisse cette histoire à ceux qui croient aux contes de fées. De motorola a intel, ça s'est bien passé, parce que la transition fut courte.
Ta coexistence longue arm Intel : il y aura forcément des clients lésés, en attente du bon driver.. ?

Pour le boulot du core m : il répond à tous les besoins ? Tu penses quoi du MacBook alors ?Autonomie / puissance ? C'est pas un bon produit ?
(Je ne suis juste pas d'accord avec le prix )

avatar Lopokova Lydia | 

@Ducletho

Il est bien plus complexe de porter une application d'un OS à l'autre que d'une architecture CPU à l'autre.

Sur des soft modernes c'est quasiment trivial tant ils sont loin du matériel sous-jacent.

Et ce n'est en rien de la pensée magique :-)

Pages

CONNEXION UTILISATEUR