Avec la puce OP1, Google mise aussi sur ARM pour ses ordinateurs

Mickaël Bazoge |

Le nouveau Chromebook Plus de Samsung est un des premiers ordinateurs portables sous Chrome OS à faire fonctionner des applications Android. Alors certes, cette prise en charge est encore brinquebalante (lire : Le nouveau Chromebook de Samsung : des défauts, mais prometteur). Mais ce n’est pas le seul atout de cette machine. Il se trouve que sous son capot, on trouve un moteur ARM maison. OP1, le nom de ce système-sur-puce (SoC), est conçu par Rockchip mais c’est bien Google le maitre d’œuvre, d’après la découverte de The Verge.

Cet OP1 reste encore largement mystérieux, et son site dédié ne nous apprend pas grand chose de réellement croustillant, si ce n’est que la puce s’adapte parfaitement à tous les usages — en particulier aux applications et services de Google, évidemment. Le SoC fait fonctionner des apps Android en natif (même si les performances dans la vraie vie ne sont pas encore au top faute d’optimisation de la part des développeurs). Il est aussi censé tirer le meilleur profit du Wi-Fi et optimiser l’usage de la batterie.

Ce qui est particulièrement notable dans cette nouvelle, c’est que Google investit dans le développement de ses propres SoC ; et au vu du nom de la puce, on peut parier sans trop se tromper qu’elle aura des successeurs. C’est un coup de poignard supplémentaire dans le dos d’Intel, qui motorise tout de même le Chromebook Pro du même Samsung (avec un Core m3). Les processeurs x86 du fondeur ont échoué à s’imposer dans les smartphones et les tablettes ; il reste encore quelques efforts à accomplir pour que les puces ARM puissent faire jeu égal avec les processeurs Intel, mais les constructeurs s’en approchent dangereusement.

Apple et ses puces Ax, Microsoft et Windows 10 compatible ARM, et désormais Google montrent que l’écart de puissance n’est plus si important entre les SoC ARM et les puces du groupe de Santa Clara. D’ailleurs, l’A10 de l’iPhone 7 n’a plus grand chose à envier au Core i5 d’un MacBook Air. Et la puce ARM au cœur des MacBook Pro a vocation à étendre ses fonctionnalités au sein de l’ordinateur… jusqu’au jour où elle remplacera complètement les Core d’Intel ?

avatar enzo0511 | 

va falloir s'y faire, intel sur mac ce sera bientôt fini, place à l'ARM

faudra juste espérer que nos mac actuels ne seront pas à mettre à la poubelle

avatar pocketalex | 

Si le meilleur ARM chatouille les core i5/m5 des Macbook et Macbook Air, le delta avec un i7 quad core comme ceux du Macbook Pro, un I7 desktop comme le 6700K de l'iMac, ou un Xeon 12c comme celui du Mac Pro est juste gigantesque

On est loin, très loin d'avoir des ARM sur toute la gamme Apple

avatar C1rc3@0rc | 

Rectification: un A9 ou un Exynos conçu et optimisé pour faire tourner des smartphone se place en terme de puissance au niveau des Core i5 des Macbook Air.

Qu'un Snapdragnon bridé par un TDP reel de moins de 3watt n'arrive pas a la puissance d'un Core i7 ayant un TDP (chroniquement sous evalué chez Intel) de plus de 90 watts, c'est un peu normal.

On voit aujourd'hui comme l'indique l'article que l'ARM equipe les PC qui etaient encore hier la cible des Core-M jusqu'aux Core i5...
La question n'est pas de savoir si ARM peut concurrencer Intel dans les marchés qu'il a mis des annees a prendre a coup de pratiques anticoncurrentielles illegales, mais combien de temps avant des processeurs ARM conçus pour concurrencer les Core i7 frontalement!

Ce qui est contrariant c'est qu'il est clair que les ARM d'Apple sont les meilleurs ARM mobile et qu'il faudrait peu pour qu'ils se placent face aux Core i7 (augmentation du TDP et donc de la consomation, 8 core,...). Sauf que pour cela il faudrait qu'Apple veuille construire un ARM pour PC et que tout semble indiqué qu'Apple ne s'interresse plus du tout au PC, encore moins au PC puissant et que la seule idée d'Apple est de remplacer ses PC par des iPad...

avatar McDO | 

@enzo0511

En plus du gouffre qu'il y a entre un proco de bureau x86 et une puce ARM en terme de puissance, c'est aussi toute la partie compatibilité logiciel et matériel qu'il faudra prendre en compte, et ça c'est beaucoup plus problématique voir impossible.

Si tu veux un ordi avec une puce ARM, contente toi d'un iPad.

avatar Espcustom | 

Ça va arriver plus vite que prévu. Surtout si tout le monde s'y met. Ça sent mauvais pour Intel..

avatar C1rc3@0rc | 

Ben non pas plus vite que prevu, puisque les PC ARM etaient attendus il y a deja 2 ans (A8, Nvidia Tegra,...) qui etaient au niveau des petits Core i5.

Mais entre la possibilité technique, les intérêts économiques et la puissance de lobbying d'Intel, il y a un gouffre difficile a traverser.

Bon il faut aussi mettre en evidence une realité dont Intel n'est pas responsable: il y a 2 ans le marché avait de la peine a produire assez d'ARM pour les appareils mobiles, donc lancer des productions conçues pour PC auraient demandé la requisition de lignes de productions manquantes... aujourd'hui a la fois le nombre de lignes a augmenté, leur productivité aussi, et en plus la puissance des ARM conçus pour les appareils mobiles est suffisante pour equiper les netbook jusqu'aux ultrabook...

Quand on voit d'ailleurs le mode de fonctionnement normal du Macbook Pro a Touch Bar, qui passe son temps avec des composants a l'arret et une activité minimaliste histoire de faire tenir la batterie plus d'une heure, on se dit que, pour la plupart des utilisateurs, un A9x a l'interieur serait largement suffisant..

avatar cecemf | 

R.I.P Intel ça sent pas bon pour eux, ils pourront toujours louer leur usine pour que Les autres fabrique leur propre processeur LOL

avatar k43l | 

Ouais enfin si on s'en tiens au rôle donné par cette puce, elle n'a pas pour but de remplacer les processeur Intel. Tout comme la puce dans les MBP ne sont pas destiné à remplacer les i5 - i7.

Le coup de poignard à mon sens il est à qualcomm qui perd une place pour mettre un de ses SoC.
Et qui dit un SoC, dit des SoC dans ses propres appareils et en premier lieu les Smartphones !

avatar 513 | 

C'est un Rockchip RK3399, SoC à 6 cœurs (2 Cortex-A72 et 4 Cortex-A53) pouvant monter à une fréquence de 2 Ghz, en architecture Big.LITTLE 64 bits.
GPU: Mali-T860MP4

avatar nicolas | 

Je suis curieux de voir que lorsque vous comparez les puces ARM et Intel, vous ne parliez jamais de la gestion des Entrées/Sorties ? (Lignes PCI, etc....)

Qu'en est-il vraiment?

Quelqu'un aurait un article à me conseiller?

avatar fte | 

@nicolas

Il n'y en a pour ainsi dire pas.

Il y a quelques chips dotés de lignes PCIe (2, pas 3) cher Marvell ou Ti ou encore Qualcomm, mais ça reste exceptionnel.

L'USB 3 est la plupart du temps présent mais il n'y a évidemment pas 10 ports. 1. Parfois 2.

Ce sont des SoC presque dans tous les cas. Des system on chip. Tout est sur la puce ou presque, modem LTE, wifi, BT, GPU y compris. Il n'y a pas d'écosystème PCIe comme sur x86. Il n'y a pas d'écosystème du tout.

avatar C1rc3@0rc | 

@nicolas

Les ARM actuels sont conçus pour motoriser des smartphone et des tablettes. Pas des tours PC.
Le fait qu'ils arrivent aujourd'hui dans le PC, c'est a dire netbook comme les Chromebook, hybrid et ultrabook c'est parce que la puissance et l'efficience énergétique de ces processeurs mobiles est superieure a celle des x86 Core M, Core i3 et petits Core i5... pour autant ils restent conçus pour les mobiles.

Apres, au niveau de la gestion des lignes PCI, thunderbolt, USB, etc, que ce soit une architecture x86 ou un ARM ne change rien. En terme d'efficacité d'I/O il faut rappeler que l'autre domaine ou ARM est champion, et cela depuis plus de 20 ans, c'est dans les materiels d'infrastucture telecom et aussi dans l'embarqué temps reel, ou la il s'agit d'I/O a "haute frequence"...
Il y a meme des prototype de serveur GPGPU ou des ARM pilotent des groupes de GPU CUDA.

bref faut pas s'en faire a ce niveau, l'architecture ARM tient parfaitement la route.

avatar Mike Mac | 

C'est marrant le détournement d'infos pour le faire coller à sa vision des choses.

Sujet le processeur ARM OP1 designed by Google.

Conclusion à l'emporte pièce : "C’est un coup de poignard supplémentaire dans le dos d’Intel, qui motorise tout de même le Chromebook Pro du même Samsung (avec un Core m3)... L’écart de puissance n’est plus si important entre les SoC ARM et les puces du groupe de Santa Clara... Et la puce ARM au cœur des MacBook Pro a vocation à étendre ses fonctionnalités au sein de l’ordinateur… jusqu’au jour où elle remplacera complètement les Core d’Intel ?".

Tout cela pour encore nous revendre l'hypothétique swap Intel / ARM sur les MacBook. Joli !

C'est comme si la conclusion avait été écrite en premier pour tricoter la news vers le processeur ARM de Google.

Les Chromebook ARM et x86 cohabitent depuis un bail sur le marché. Le grand coup de canif de Google serait si l'implémentation de Chrome OS imposait aux constructeurs d'y coller sa puce ARM en offre couplée. Pas d'OP1, pas de ChromeOS... Pas de bras, pas de chocolat...

Par ailleurs, en cherchant un peu, on s'aperçoit que les constructeurs chinois multiplient les tablettes, notebooks et hybrides en dual boot Windows / Android à tarifs ultra-compétitifs, ce qui augmente encore l'offre Google sur x86.

Exemple :

http://www.gearbest.com/android-tablet-_gear/c_11294/

Enfin, là ou il n'y a pas de virtualisation iOS proposée par Apple pour le Mac, il y a pléthore de solutions gratuites sous Windows pour Android dont Memu, Nox, DroidX4... Augmentant là encore la présence de Google sous x86.

Mais, courage, comme avec la mort de Flash rabâchée depuis la sortie de l'iPad 1, et toujours pas effective, cela laisse un boulevard temps pour répéter l'incantation "Intel est mort".

avatar Domsware | 

@Mike Mac

La mort "annoncée" de Flash c'est lors de la présentation de l'iPad.

avatar pocketalex | 

La mort de flash c'est une longue et lente agonie qui a débuté en 2007 avec la présentation de l'iPhone et n'est pas vraiment achevée même si on y est presque

Flash n'est plus utilisé pour faire des sites, quasiment plus pour lire des vidéos ou plus pour les bannières publicitaires

Il reste encore quelques sites réalisés "à l'époque" et quelques plate-formes qui l'utilisent un player mais de plus en plus avec une alternative HTML5

Les navigateurs modernes le désactivent par défaut

Bientôt le coup de grâce...

avatar C1rc3@0rc | 

@Domsware

En fait la mort annoncé de Flash c'est l'iPhone, en 2007 et le développement des fonctions HTML5 par le WHATWG (2004).

Mais Flash a la peau dure grâce aux publicitaires et l'industrie du divertissement.

@Mike Mac
«Les Chromebook ARM et x86 cohabitent depuis un bail sur le marché. »

Ben c'est meme plus ancien puisque les premiers netbook etaient motorisés avec de l'ARM avant qu'Intel ait recours a toutes les methodes les plus crapuleuses pour forcer les constructeurs a y mettre des ATOM puis des Core-M.

Avant qu'Intel ne finisse par abandonner le gouffre financier qu'etait l'ATOM (payer les contructeurs pour produire des materiels equipés d'ATOM ça a couté cher), on a vu les netbook et les chromebook passer sous x86. Maintenant qu'Intel n'a plus les moyens de tenter d'acheter des PDM pour ses x86, les constructeurs doivent produire leurs ARM.

avatar macinoe | 

L'auteur de l'article fait une petite fixette sur le sujet..

Tout début de commencement d'indice permettant d'éventuellement envisager un switch est tout de suite exagéré et développé.

C'est un processus amusant à voir à l'oeuvre, un peu comme les gens qui s'autopersuade de la visite d'extraterrestres..

Et somme toute assez innofensif.

avatar Mike Mac | 

@Domsware

Corrigé, merci !

avatar fte | 

Si vous pensez que ce processeur entre en compétition avec Intel vous vous trompez de cible.

Ce processeur entre en compétition avec l'offre de Qualcomm. Éventuellement avec des SoC pour appliance de chez Marvell. Mais certainement pas Intel.

avatar C1rc3@0rc | 

Un Chromebook avec un ARM c'est un Chromebook sans Core-M, sans Core i3.
Pareil pour les autres netbook et hybride.
Pareil pour les tablette.
Pareil pour les tabletPC (on va voir ce que propose MS a ce niveau)

Intel a tout fait pour tenter de prendre des PDM sur le marché mobile (smartphone et tablette), ça lui a couté des fortunes, la il se fait degager du marché du PC mobile. Prochaine etape ?

Qualcomm est en concurrence avec le reste des constructeurs ARM, et il y en a de plus en plus avec l'arrivée fracassante des fondeurs chinois, et cela n'est pas nouveau.
Non la "victime" c'est bien le x86 d'Intel.

Mais faut pas s'en faire pour Intel, le x86 mort, sa production d'ARM prendra le relai. C'est juste qu'il faut mettre terme a des décennies de dogmatisme x86 everywhere pour constater ARM everywhere.

avatar fte | 

@C1rc3@0rc

« le x86 mort »

Moyennant qu'il n'y a un quasi-monopole du x86 sur un vaste éventail de matériels informatiques, et qu'il n'y a pas de signe de l'arrivée d'une alternative quelconque, il y a zéro chance que ça arrive dans la décennie prochaine.

Si Intel chutait, les pays devront financer la fabrication de processeurs compatibles par des chinois très certainement, ou en perfusant un Intel réduit à sa division x86, pour simplement sauver l'informatique mondiale. x86 est "too big to fail" à ce stade.

Rêve autant que tu veux, mais ton aigreur envers le x86 t'accompagnera pendant des dizaines d'années encore. Je te plains.

« mettre terme a des décennies de dogmatisme ... »

Quel visionnaire tu fais ! Remplacer un dogmatisme (qui n'en a jamais été un) par un autre dogmatisme (qui n'en sera jamais un j'espère), magnifique programme politique. On dirait de la politique américaine. Je n'y vois aucun avantage pour ma part.

avatar C1rc3@0rc | 

«Moyennant qu'il n'y a un quasi-monopole du x86 sur un vaste éventail de matériels informatiques, et qu'il n'y a pas de signe de l'arrivée d'une alternative quelconque, il y a zéro chance que ça arrive dans la décennie prochaine.»

Oh c'est pas un quasi monopole, c'est un monopole effectif construit sur des pratiques scelerates qui ont fait condamner Intel de maniere historique.

mais regarde d'ou viennent les benefic d'Intel depuis 5 ans: indices l'equipement des data center. Ça fait des années qu'Intel paye pour maintenir le monopole PC, des annees qu'Intel s'est ruiné pour tenter d'imposer l'Atom dans le mobile, et quelques temps aussi qu'Intel essay(ait) d'entrer sur les marchés de reference d'ARM avec les Quark et autres guignoleries du genre. Intel est tellement desespere qu'il se lance dans le modem et va produire - sacrilege - de l'ARM a façon pour ses ex futurs-concurents...

Et j'en connais des cabris qui tressautaient en belant Bay Trail, Bay Trail et voyaient Intel éjecter ARM dans les 2 ans du mobile.
L'Atom est mort et le x86 se fait éjecter des netbook, et meme Microsoft qui promet de passer les PC a ARM.

Quand a l'alternative, ou les alternatives plutot, regarde du coté ARM, IBM, Nvidia, sur les différents marchés ou etait et ou voulait etre Intel...

« x86 est "too big to fail" à ce stade.»

C'est ce que ce disait le tout Wall street concernant Lehman Brother... c'est ce qu'on appelle un dogme.

avatar Stardustxxx | 

"D’ailleurs, l’A10 de l’iPhone 7 n’a plus grand chose à envier au Core i5 d’un MacBook Air. Et la puce ARM au cœur des MacBook Pro a vocation à étendre ses fonctionnalités au sein de l’ordinateur… jusqu’au jour où elle remplacera complètement les Core d’Intel ?"

L'A10 n'a pas grand chose a envier en terme de complexité au Core i5, il est même plus complexe, il a plus de transistors, et pourtant il est moins puissant. Pourquoi parce qu'il n'ont pas été conçu avec la même approche, ARM vient du low power et veut augmenter sa puissance, et x86 fait le contraire.
Il est aberrant de vouloir comparer les 2, c'est un peu comme comparer une mobylette, et un camion, ca permet de se déplacer, mais ca ne le fait pas de la même façon.

L'ISA n'a pas d'influence sur la consommation, le decodeur x86-64 sur Haswell represente 3% de la consommation énergétique, et sur ARM il faut aussi un décodeur de ARM vers du microcode. C'est plus le design choisi pour le processeur qui a une grosse influence sur la consommation : nombre de coeur, fréquence de fonctionnement, TDP, throttling, etc..

Le seul avantage d'Apple de passer a ARM, c'est d'être indépendant d'Intel.

avatar C1rc3@0rc | 

@Stardustxxx

«L'A10 n'a pas grand chose a envier en terme de complexité au Core i5, il est même plus complexe, il a plus de transistors, et pourtant il est moins puissant»

Non.
Un dualcore i5 c'est 2 milliards de transistors
Un quad core A10 c'est 3 milliards de transistors

Et la on parle d'un processeur qui embarque des core, coprocesseur et gpu (Core i5), face a un quasi un ordinateur sur une puce (A10).
Donc il y a forcement plus de transistors parce qu'il y a 2 core de plus du cote de l'A10 et il y a aussi beaucoup d'autres choses.

D'ou est ce que tu tires le chiffre de 3% de consommation énergétique du "décodeur" x86? Le traitement interne du x86 est un secret industriel d'Intel.
Déjà ce n'est pas un simple décodeur comme sur ARM, mais une machinerie complexe.
On peut estimer la complexité du traitement nécessaire a partir des recherches qui ont ete faites sur les processeurs des Lisp Machine et autre processeurs de traitement en IA ainsi que des compilateur JIT, mais ce que fait en interne un x86 c'est le secret le mieux gardé d'Intel.

Ensuite tu ne peux pas comparer le traitement CISC/RISC de ce qui est une machine virtuelle hypercomplexe "hardware" qui doit tourner sur le moteur RISC, avec toutes les differences CISC vs RISC, face a la simplicité de traitement RISC natif. Y a un étage entier et complexe sur les x86 modernes qui n'existe pas dans les ARM.
Tu peux toujours vouloir comparer des navets et des pommes: le jeu d'instructions ARM est un jeu d'instruction RISC natif, le jeu d'instructions x86 est natif CISC.

Apres, je suis totalement d'accord avec toi sur le fait que c'est la realisation de l'architecture qui a la plus grosse influence sur la consommation (qu'est qui est allumé ou eteint).

Mais la conception de architecture a encore plus d'impact sur la puissance par watt et donc l'efficacité énergétique (puissance de calcul par watt consommé). Ce qui veut dire qu'un architecture prevu de le départ pour l'efficacité énergétique a une marge de progression bien plus importante et des applications plus larges qu'une architecture dont l'efficacité énergétique repose sur la finesse de gravure.

«Le seul avantage d'Apple de passer a ARM, c'est d'être indépendant d'Intel.»

C'est un des avantages, mais les 4 principaux avantages sont comme pour tout le monde dans l'industrie:
- efficacité énergétique très supérieure
- plasticité incomparable
- marge de progression de puissance incomparable
- multiprocessing plus performant et plus souple

avatar Stardustxxx | 

@C1rc3@0rc
"«L'A10 n'a pas grand chose a envier en terme de complexité au Core i5, il est même plus complexe, il a plus de transistors, et pourtant il est moins puissant»

Non.
Un dualcore i5 c'est 2 milliards de transistors
Un quad core A10 c'est 3 milliards de transistors"
Si. L'A10 a plus de transistors.

"Et la on parle d'un processeur qui embarque des core, coprocesseur et gpu (Cor i5), face a un quasi un ordinateur sur une puce (A10)."
La différence est minime, ce qui prend le plus de place ce sont les caches.
Qu'est qu'a en plus un soc par rapport a un i5, a part le modem pas grand chose, et le i7 a tout la gestion des lignes PCIe.

"Donc s'il il y a forcement plus de transistors parce qu'il y a 2 core de plus du cote de l'A10, il y a aussi beaucoup d'autres choses."
C'est 2+2, 2 core low power, ca prend pas beaucoup de place.

"D'ou est ce que tu tires le chiffre de 3% de consommation énergétique du "décodeur" x86? Le traitement interne du x86 est un secret industriel d'Intel."
C'est très simple, je me renseigne. https://www.usenix.org/node/195139
Entre 3 et 10% de la consommation pour decodeur x86, 22% pour le cache L2...
Tu as aussi un décodeur sur ARM, pour l'A10 ca doit cracher des microops afin d'avoir un IPC supérieur a 1, le décodeur devient de plus en plus complexe sur ARM aussi.

"Ensuite tu ne peux pas comparer le traitement CISC/RISC de ce qui est une machine virtuelle hypercomplexe "hardware" qui doit tourner sur le moteur RISC, avc toutes les differences CISC vs RISC, face a la simplicité de traitement RISC natif. Y a un etage entier et complexe sur les x86 modernes qui n'existe pas dans les ARM.
Tu peux toujours vouloir comparer des navets et des pommes, le jeu d'instructions ARM est un jeu d'instruction RISC natif, le jeu d'instructions x86 est natif CISC."
Je te conseille de reviser tes notions sur les microprocesseur, http://www.lighterra.com/papers/modernmicroprocessors/

Qu'un processeur soit RISC ou CISC ne change rien niveau programmation, car meme si tu es en C/C++, le code ne change pas que tu target ARM ou x86. C'est le compilateur qui va te cracher le code, et en RISC le compilateur doit faire plus de boulot que pour du CISC, alors que les optimisations se fassent a la compilation ou a l'execution ca ne change pas grand chose au final. Car suivant ce que tu as a faire l'un ou l'autre aura un avantage, et en moyenne cela ne changera pas grand chose.

"Mais la conception de architecture a encore plus d'impact sur la puissance par watt et donc l'efficacité énergétique (puissance de calcul par watt consommé). Ce qui veut dire qu'un architecture prevu de le départ pour l'efficacité énergétique a une marge de progression bien plus importante et des applications plus larges qu'une architecture dont l'efficacité énergétique repose sur la finesse de gravure."
Pas du tout, tu assumes que la progression est linéaire, ce qui est totalement faux. De même, si l'augmentation des cores réglaient tout les problèmes, t'inquiètes pas que la majorité des cpu les auraient multiplier. Il y a un domaine ou c'est efficace de multiplier les cores, ce sont les GPUS, et c'est ce que font les constructeurs.

"- efficacité énergétique très supérieure"
Non c'est faux, c'est toi qui affirme cela. L'ISA n'a rien a voir avec l'efficacité énergétique.

"- plasticité incomparable"
Le modèle mémoire ARM a des contraintes en multicore que l'x86 n'a pas.

"- marge de progression de puissance incomparable"
Non, la progression n'est pas linéaire, tu ne peux pas extrapoler.

"- multiprocessing plus performant et plus souple"
Non, ARM a un model mémoire "weak" alors que le x86 est "strong", ca a une influence pour les atomic par exemple.

avatar C1rc3@0rc | 

«C'est 2+2, 2 core low power, ca prend pas beaucoup de place.»

C'est de la mauvaise foi: low power ne veut pas dire simpliste ...
Donc tu tentes de rattraper un argumentaire sur une affirmation de base fausse qui invalide totalement ton argumentaire.
Il y a bien 4 core, plus tout ce qui va avec en terme d'interconnexion, mémoire, et ordonnanceur pour gerer le mode alternatif (2|2)... Donc fatalement un peu plus de transistors! Apres le nombre de transistor n'est pas le seul facteur de complexité, loin de la, il y a toute l'organisation et les connexions de l'architecture qui peuvent être plus ou moins complexes.
Un x86 est monstrueusement complexe tellement chaque niveau et sous groupe doit etre hyper optimisé.

Concernant le décodeur CISC, deja maintenant tu passes de 3% a « de 3% a 10% plus 22%», soit un impact entre 25% et 32%... un cout energetique de 32% n'est pas negligeable! Mais passons, on en est plus a ca avec toi.

De plus le papier que tu cites, qui t'obliges a revoir ton affirmation precedente, est contesté. Il s'agit d'une estimation empirique. Les auteurs n'ont pas eu acces aux secrets d'Intel du fonctionnement interne du x86 et ont basé leurs approche sur un fonctionnement supposé.

Et franchement quand on lit :Our core idea is to design microbench-
marks that exhaust the micro-op cache, thus triggering the instruction decoders... We model the power consumption using linear regression analysis. Our linear model predicts the power consumption of different components including the execution units, instruction decoders, and L1 and L2 caches. The result demonstrates that the decoders consume between 3% and 10% of the total processor package power in our benchmarks.
, ben on comprend qu'ils font une projection statistique a partir d'une mesure empirique basée sur la supposition d'un fonctionnement qu'ils sont incapables de demontrer...

Je rajouterais qu'il y a aussi un traitement CISC -> RISC en entrée mais aussi un traitement RISC -> CISC en sortie. le X86 est une machine virtuelle qui tourne sur une architecture RISC et le soft n'a jamais acces au RISC...

Plus grave, ils basent leurs étude sur un Core i7, alors que le champs de référence de l'article est le serveur et le HPC!

Mais inutile d'aller chercher si loin: toutes les architectures d’exécution commercialisées depuis un sacré moment sont du RISC (ou EPIC ou GPGPU): le CISC a ete abandonné.
Le x86 est juste une complication - pour des raisons monopolistique - qui conserve un CISC virtuel qui tourne sur un RISC. Sans cette necessité monopolistique, Intel produirait des processeurs RISC purs ou des EPIC bien plus efficaces.

Quant a l'IPC, c'est simple: SISD ou MISD. Pour augmenter l'IPC faut paralléliser et la soit on est en symetrique (multicore), soit on fait appel a des unités specialisées, mais ça veut dire d'avoir un ordonnanceur qui sache repartir en nature en en flux. Donc l'IPC va dépendre de la nature de la tache a être parallélisée. Et plus le comportement du processeur est previsible, plus le compilateur peut améliorer l'IPC, mais le programmeur doit aussi plus optimiser son code.


«Qu'un processeur soit RISC ou CISC ne change rien niveau programmation»

Programmer un CISC ou un RISC change absolument tout et tu le dis toi meme par la suite... et surtout un soft RISC est optimisé lors de la compilation, une fois pour toute!
Le X86 lui doit rajouter a l'execution du programme une optimisation intense, quasi un autre processus complet de compilation JIT, pendant l'execution. Ce qui a un cout energetique evident, de meme qu'une complexité d'excecution tres différente, difficile a prevoir en terme de comportement et de resultat.


«que les optimisations se fassent a la compilation ou a l'execution ca ne change pas grand chose au final. »

Rien!
A part une analyse en profondeur, une reorganisation du code, voire une substitution d'instructions qui se calent dans le meme temps que l'execution du programme lui meme... A part dans un espace quantique, un resultat ne peut s'obtenir avant le calcul, et si tu multiplie les calculs, tu multiplie l'energie et le temps nécessaire a la realisation.

Ce que tu affirmes revient aussi a dire qu'un langage interprété pur est aussi efficace qu'un langage compilé et cela meme sur un traitement linéaire non récurrent.

Le pire c'est que je crains que tu sois le prototype du résultat du marketing d'Intel et que beaucoup de programmeurs se fourvoient de la même manière, se disant que toutes optimisation est inutile vu que le processeur la fera...

«Pas du tout, tu assumes que la progression est linéaire, ce qui est totalement faux.»
J'ai jamais dis que la progression est lineaire!
Je constate, comme tout le monde, que le core x86 stagne depuis 10 ans alors que l'ARM double sa puissance en moyenne a chaque generation pendant qu'elle ameliore son efficacité energetique!!!
Cela indépendamment de la finesse de gravure et jusqu'a maintenant rien n'indique qu'ARM soit proche du mur dans lequel s'est ecrasé le x86.

«De même, si l'augmentation des cores réglaient tout les problèmes, t'inquiètes pas que la majorité des cpu les auraient multiplier»

C'est ce qu Intel a essayé de faire et de faire croire avec la course au multicore pour remplacer la course au gigahertz perdue. Intel a essayé avec son approche enfermante d'encapsuler sous une apparence CISC SISD un truc batard ressemblant a du MISD. Au final, le x86 s'en sort avec 2 a 4 core et au-dela ça devient une catastrophe si on est pas sur des usages purement serveur ou on a un grand nombre de thread séquentiels
Mais le fait est qu'un ARM utilise mieux le multicore qu'un x86.

«L'ISA n'a rien a voir avec l'efficacité énergétique.»

En terme d'efficacité energetique l'architecture RISC est meilleure que le CISC, deja pour la raison toute bete que le CISC implique plus de travail a l'execution et que le traitement des données est imprevisible.
Mais il y a une aussi grosse différence entre architectures similaires a cause de la micro-architecture.
Apres un jeu d'instructions peu etre plus ou moins efficace selon son adaptation a un type d'utilisation ou un autre... cela dépend de l’adéquation de l'instruction et des composants de l'architecture.

Au niveau de la plasticité, l'ARM est superieure au x86, parce que l'architecture ARM est ouverte a l'environnement et a des environnements heterogenes des la conception. Et on peut réaliser a peu pres n'importe quelle adaptation d'un ARM, la seule contrainte c'est de respecter le jeu d'instructions.

Le x86 est un outil monopolistique qui ferme la porte a un ecosysteme informatique. L'idee d'Intel c'est le x86 CISC everywhere omnipotent. S'il pouvait faire le café il le ferait!
Ils ont meme essayé de pousser le concept aux limites du ridicule avec Larabee, posé comme alternative au GPU!!! Et que dire de l'Atom et du Quark!

Et au lieu d'offrir une collaboration efficace avec des coprocesseurs, Intel fait tout pour integrer tout et n'importe quoi dans le die du x86.
L'integration du GPU déconstruit en unité vidéo, est un exemple marquant de cette rigidité, et de plus c'etait pour finir d'asphyxier AMD et pour empecher Nvidia de se developper.

avatar Stardustxxx | 

@C1rc3@0rc
"Concernant le décodeur CISC, deja maintenant tu passes de 3% a « de 3% a 10% plus 22%», soit un impact entre 25% et 32%... un cout energetique de 32% n'est pas negligeable! Mais passons, on en est plus a ca avec toi."

Tu sais lire ? Tu sais raisonner ?
On reprend, la consommation du décodeur x86-64 est évaluée entre 3 et 10%, en comparaison le cache L2 consomme 22%.
Pourquoi tu ajoutes les 2 ? Il n'y a pas pas de cache L2 sur un CPU arm ?

Si sur un point aussi simple tu est incapable de sortir une phrase cohérente, un raisonnement cohérent. Je ne vais pas perdre mon temps a corriger toutes les autres conneries que tu dis dans chaque poste.

Ah oui je n'ai aucune haine d'ARM ou de Satan, je regarde ca de facon scientifique, basé sur les faits pas sur des délires..

avatar Stardustxxx | 

@C1rc3@0rc
"Je rajouterais qu'il y a aussi un traitement CISC -> RISC en entrée mais aussi un traitement RISC -> CISC en sortie. le X86 est une machine virtuelle qui tourne sur une architecture RISC et le soft n'a jamais acces au RISC..."

Ahahahahahahaa... Encore une perle.

Tu ne comprends vraiment pas comment fonctionne un CPU.

Dans la majorité des cas le résultat d'une instruction, c'est une valeur a mettre en mémoire, et non pas une instructions que tu doit "reencode en CISC". Un CPU execute les instructions, il ne génére pas les instructions....

avatar fte | 

@C1rc3@0rc

« ... qui est une machine virtuelle hypercomplexe "hardware" qui doit tourner sur le moteur RISC, avec toutes les differences CISC vs RISC, face a la simplicité ... »

Plusieurs études ces 20 dernières années sont en totale contradiction avec ton propos.

Je te propose d'aller consulter l'étude précise menée par le vertical research group de l'université Madison du Wisconsin, elle est librement consultable et toutes les données le sont également pour vérification et confrontation avec d'autres études qui se voudraient contradictoires.

http://research.cs.wisc.edu/vertical/wiki/index.php/Isa-power-struggles/Isa-power-struggles

Pour le dire très vite, l'ISA n'a aucune influence sur la puissance ni la consommation. La microarchitecture déterminé la puissance et la consommation.

Je te propose également d'aller consulter les white papers de VIA sur leurs gammes x86 basse consommation de ces 20 dernières années. Tu y trouveras des implémentations x86 remarquablement efficaces en terme de consommation, invalidant ta diatribe nauséeuse sur l'ISA x86.

Et pour conclure, je te propose d'étudier d'un peu plus près les ISA ARM, en particulier le T32 et A64, ainsi que les extensions obligatoires NEON et Jazelle. Tu verras beaucoup de choses étranges pour un processeur supposé pur RISC, et tu verras une évolution de l'ISA fortement teintée de compatibilité ascendante comme chez x86, et des boulets traînés pour cette sacro-sainte compatibilité. Ce qui est totalement compréhensible et justifiable, comprends-moi bien, mais qui met les deux ISA (si on peut encore parler d'ISA, on devrait parler d'écosystèmes d'ISAs multiples) sur un pied d'égalité en terme de boulets historiques et de solutions palliatives. Et tu y verras également de la politique de licence implémentée dans l'ISA, pour le bénéfice d'ARM Holdings évidement, certainement pas pour les clients finaux - nous. Jazelle est particulièrement fumeux.

ARM n'est en rien meilleur qu'Intel sur le plan commercial et politique. Pire même, car en situation de monopole d'IP. Rappelons que l'IP x86 n'est pas un monopole Intel. x64 est en réalité amd64 à la base, par exemple. Renseignes-toi sur les accords et patentes partagées entre Intel et AMD, c'est intéressant.

Bref. Tu as du travail. Alors au boulot.

avatar C1rc3@0rc | 

ARM en situation de monopole!!!
Celle la je l'encadre, c'est magistral.
Non ARM n'est aucunement en situation de monopole et a aucun niveau!
Et non ARM n'a jamais fait le centieme des comportements de scelerats qui ont amené Intel a etre condamné.
N'importe qui peut acquérir une licence ARM, triturer et adapter l'architecture, faire réaliser les processeurs par n'importe quel fondeur et même produire un processeur opensource!

Je vais arreter d'argumenter technique face a vous 2, c'est inutile, vous etes persuadés que la Terre est plate et que le Soleil tourne autour et qu'ARM c'est Satan.

Je vais juste te repondre que plusieurs études ces 20 dernières années sont en totale contradiction avec ton propos. Et plus encore, la realité commerciale demontre l'inverse.

Pourquoi Intel est le seul a avoir conservé une architecture CISC (motorisé par un RISC je te rappelle) alors que tout le reste de l'industrie a basculé sur le RISC.

Et d'ailleurs pourquoi Intel a ete obligé de virtualiser son CISC sur un RISC?
Pourquoi se compliquer la vie et aller se prendre le mur avec un CISC alors que le monde entier s'est mis au RISC?
Hormis la conservation de la captivité du client asservi, quel autre avantage a poussé Intel a rester sur le CISC x86, alors meme qu'Intel avait sous la main une licence ARM et l'obligation de continuer a produire de l'Itanium?

Et pas uniquement ARM, qui est l'heritier d'Acorn, pionnier du RISC, qui fait du RISC mais surtout les boites qui faisaient de la station de travail, du serveur, du calculateur...

Certes Intel a reussi a eliminer par ses methodes crapuleuses ses concurrents un a un et a ete condamné pour cela mais trop tard pour beaucoup de boites et d'equipes.
Mais le fait est la, et aujourd'hui le x86 perd de plus en plus de terrain face a ARM, et c'est pas faute pour Intel d'avoir tenté d’arrêter l’érosion en arrosant massivement les constructeurs pour qu'ils s’équipent qu'en x86!

Quand t'as un producteur de microprocesseur qui vend a perte ces processeurs, qui produit toute la R&D jusqu'au prototype de reference qu'il n'y a plus qua habiller, qui paie le marketing, etc,... et que le resultat c'est l'abandon de la plateforme apres 8 ans de pertes seches, faut quand meme se poser des questions sur l’inefficacité de l'architecture!

avatar fte | 

@C1rc3@0rc

Ah, tu n'as pas fais tes devoirs. Je t'ai aidé avec des liens pourtant.

« Je vais arreter d'argumenter technique »

JOIE !

Ce n'était en rien technique.

Déjà si tu ne confondais pas sans arrêt (micro-)architecture et ISA ça ressemblerait plus à de la technique, mais ça en resterait assez loin néanmoins.

Prétendre que Intel (et AMD et VIA) est resté coincé sur une architecture CISC est hallucinant de je ne sais pas quoi. Tu y crois vraiment ? Sais-tu seulement ce qu'est une architecture RISC ? Fais-tu la différence entre la micro-architecture et le modèle programmeur et l'ISA ?

Tu nous distilles des croyances fumeuses et de la détestation d'Intel et tu oses nous accuser de tes maux. C'est cocasse.

Mais c'est cool puisque tu dis arrêter ces enfantillages.

Si tu veux commencer par quelque chose de simple, commence par les modèles programmeurs A64 et x86-64, puis visite comment ces modèles sont implémentés en micro-architecture, le renommage, les adresses, l'exécution. Enfin, simple, par rapport au reste je suppose que ça l'est.

Laisse les ISA de côté pour l'instant, le bagage historique fait que c'est un beau bordel à droite comme à gauche. T32 et Jazelle sont particulièrement marrants pour un processeur supposé pur RISC. Fail.

avatar pocketalex | 

@fte

"Tu nous distilles des croyances fumeuses et de la détestation d'Intel et tu oses nous accuser de tes maux. C'est cocasse."

En même temps, c'est sa marque de fabrique depuis longtemps. Très longtemps.

Fake News, faits alternatifs, gloubi boulga d'infos techniques et conclusions à la mord-moi-le-noeud

avatar Stardustxxx | 

@C1rc3@0rc
"Je vais juste te repondre que plusieurs études ces 20 dernières années sont en totale contradiction avec ton propos."

Elles sont ou tes études fictives ?

Voila du concret : https://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient/3
La conclusion : "The RISC vs. CISC argument should’ve passed into history a long time ago. It may still have some relevance in the microcontroller realm, but has nothing useful to contribute to the modern era. An x86 chip can be more power efficient than an ARM processor, or vice versa, but it’ll be the result of other factors — not whether it’s x86 or ARM."

avatar PTT91 | 

Et si Intel sort une nouvelle génération de processeur non X86. Parfois il faudra un changement radical pour faire un bond.
Processeur ARM n'est pas forcément LE top, c'est pour être indépendant d'Intel comme dit Stardustxxx

avatar C1rc3@0rc | 

Ben le top en terme de puissance aujourd'hui ce sont les POWER d'IBM.
En terme de puissance brute, au niveau des x86 c'est AMD qui tient le pompon.
En terme d'efficacité energetique et de plasticité c'est les architectures ARM.
En terme de multiprocessing sur des donnees vectorielles ce sont les GPU et particulierement ceux de NVidia.

La seule raison de la domination du x86 d'Intel dans le PC c'est les pratiques anticoncurentielles de Wintel.

Et Intel est aussi victime de cette politique de terre brulée, puisque Intel a du mettre au placard la technologie co-developpée par HP: l'EPIC qui a ete realisé dans l'Itanium. D'ailleurs HP et Intel sont en procés pour l'abandon de la production d'Itanium par Intel...

Apres, faut voir que de toute façon on est a la fin des processeurs sur silicium tel qu'on les connait depuis les annees 70.
Va falloir a moyen terme passer a quelque chose de totalement different (opto-eletronique, quantique, etc...). Mais dans le laps de temps on doit augementer la puissance de l'informatique tout en reduisant sa consommation. Et dans un cas comme dans l'autre l'architecture x86 est dans le mur et n'a pas d'avenir.

avatar fte | 

@PTT91

Techniquement, c'est déjà arrivé, et Intel n'est pas en situation de monopole. ARM Holdings l'est.

x64, ou x86-64, en réalité amd64, est un saut d'ISA franc. Elle est partiellement conçue comme un superset d'x86 (ou i386, qu'importe) permettant d'utiliser le même hardware pour la nouvelle et l'ancienne ISA, simplifiant à la fois le hardware et le software et les changements d'ISA entre applications. Partiellement car il y a aussi un bon coup de balai pour éliminer certains boulets.

Rappelons également qu'amd64 a tué IA-64. Pas nécessairement pour de bonnes raisons ni pour le meilleur des mondes informatiques.

avatar C1rc3@0rc | 

«Techniquement, c'est déjà arrivé, et Intel n'est pas en situation de monopole. ARM Holdings l'est.»

La Justice a jugé et condamné Intel de manière historique: le monopole était établi, aisi que l'abus de position monopolistique ainsi qu'un paquet de sales pratiques anticoncurrentielles.

ARM n'a pas de souci avec la justice. n’étant nullement en situation de monopole, ni meme utilisateurs de methodes scelerates, a la difference d'Intel.

«Rappelons également qu'amd64 a tué IA-64.»
Non, c'est Intel qui a tué l'IA-64, cela apres plusieurs tentative et procés perdus contre HP notamment. Et Intel l'a fait parce que l'IA-64 allait tuer le x86...

avatar fte | 

@C1rc3@0rc

Non.

avatar Espcustom | 

En même temps l'article ne dit pas qu'arm va complètement remplacer intel a la fin d'année.

Mais au rythme ou vont les choses, arm rattrape de plus en plus vite Intel, et on peut croire que d'ici 2-3 ans ils arriveront à maturité pour remplacer un proc Intel.

avatar fte | 

@Espcustom

On peut croire à des tas de trucs. On peut croire en dieu, on peu croire en l'homéopathie, il y en a même pour construire des ambassades pour les extra-terrestres lorsqu'ils arriveront.

avatar IceWizard | 

@fte
"il y en a même pour construire des ambassades pour les extra-terrestres lorsqu'ils arriveront."

Et alors, c'est pas utile ? Le seul à faire ça c'est Raël, qui a parfaitement atteint son objectif avec ce projet : se faire un max de pub pour se taper un max de filles !

avatar fte | 

@IceWizard

Je n'ai pas dit que c'était inutile. ;)

avatar C1rc3@0rc | 

On peut aussi choisir de ne pas croire a la cause de l'activité humaine dans le réchauffement climatique, voire même au réchauffement climatique...

Apres, il y a le pari de Pascal, face a l'absence de preuve en science:
Si on decide de croire en Dieu, et que Dieu n'existe pas, on ne perd pas grand chose (a part un peu de temps, quelques libertés et quelques opportunités)
Si on decide de ne pas croire en l'existence de Dieu, et que Dieu existe, alors on a un tres gros probleme...

Souvent la preuve dépend du fait qu'on pose la bonne question. Le dogmatisme, surtout établi, fait que par definition on ne pose pas de question.

avatar fte | 

@C1rc3@0rc

Ça dépend du dieu. S'il est admis qu'il nous a donné le libre arbitre et la liberté de pensée - une lecture rapide de la bible montre que c'est Lucifer qui nous a donné cette liberté, ou Prométhée selon la version de l'histoire, et que Papy Céleste est un peu colérique et vindicatif -, nous seront jugés sur nos actions et non nos pensées. Avons-nous eu une vie de bien ou de mal ? Croire ne signifie nullement faire le bien. Au contraire souvent, même. Aucun problème si on ne croit pas donc.

Sauf si le dieu en question est une peau de vache imbue de sa personne et qui veut être adoré sous peine de... de quoi d'ailleurs ? L'Enfer ? Là où il envoie tous ceux qui ne sont pas d'accord avec lui pour l'éternité ? A commencer par le supposé plus beau de ses anges qui nous a rendus moins cons ? Ça n'a pas l'air si infréquentable que ça.

Je sais pas. Je n'ai pas la réponse, et personne en vie ne l'a je suppose. Je ne suis ni chrétien ni monothéiste, je n'ai ni besoin ni envie de cette réponse.

avatar C1rc3@0rc | 

Ah si Dieu est une peau de vache, t'as doublement interet a croire en son existence... s'il existe.

"Souvent la preuve dépend du fait qu'on pose la bonne question. Le dogmatisme, surtout établi, fait que par definition on ne pose pas de question."

La bonne question de Pascal etait: ai-je interet a faire savoir aujourd'hui que je crois en Dieu?

De ton coté tu essayes de poser beaucoup de fausses questions (rhétoriques) pour affirmer des dogmes, mais tu ne poses pas la bonne question, d'ailleurs tu ne poses que des certitudes. Donc finalement tu es Dieu.

avatar fte | 

@C1rc3@0rc

Tu te réponds à toi-même maintenant ?

avatar pocketalex | 

@fte :

il y en a même qui croient que les station de travail PC portables sont puissante et les Macbook Pro 2016 "à la ramasse" ... alors que ces machines ont le même CPU

On est pas loin de l'arrivée des extra-terrestres

avatar McDO | 

" D’ailleurs, l’A10 de l’iPhone 7 n’a plus grand chose à envier au Core i5 d’un MacBook Air"

Tu parles du vieux i5 de 2013 bicoeur à 1.6Ghz ? Effectivement, Intel en "tremble"de peur...

avatar dtb06 | 

Les tablettes ????? Ça existe encore en 2017 ??????

avatar pocketalex | 

@dtb06

Oui, comme les smartphones et même les ordinateurs

Pourquoi voudrais tu qu'elle aient disparu ?

Pages

CONNEXION UTILISATEUR