Passe d'ARM entre Intel et Microsoft sur les appareils Windows 10 Qualcomm

Stéphane Moussie |

Intel ne voit pas d’un bon œil les futurs appareils Windows 10 équipés de processeurs Qualcomm. Dans un billet de blog retraçant les presque 40 ans de l’architecture x86, le fondeur note que « certaines sociétés tenteraient d’émuler les jeux d’instruction x86 propriétaires d’Intel sans son autorisation. » Et d’ajouter que ces éléments sont « soigneusement protégés » par des brevets en pagaille.

Microsoft et Qualcomm ne sont pas nommés, mais ils sont clairement visés. Pour proposer la logithèque Windows habituelle sur les appareils ARM, les deux acteurs émulent en effet en partie l’architecture x86. Après cette mise en garde, Intel va-t-il intenter une action en justice pour faire annuler le projet ?

avatar Hideyasu | 

Si Intel s'y amuse, ca leur fera plus de tord que de bien je pense, sur les 4 prochaines années.
Ça va inciter à complètement se passer d'eux, puis les jeux ne seront plus sur x86 et adios

avatar Stardustxxx | 

@ Hideyasu
Je pense que ca n'a aucune importance, car que ce soit le x86 ou arm, l'avenir de l'informatique n'est pas la. L'avenir c'est le machine learning, les TPUs.
La loi de moore arrive a sa fin, encore 4-5 ans avant d'être vers 3nm. IBM vient de démontrer un chip en 5nm avec 30 milliards de transistors pour 50 mm2. La seule facon d'utiliser tous ces transistors c'est de rajouter des core, or le multi-core ne regle pas tout, ou alors si c'est multi-core un GPU est probablement plus efficace.
Google avec ses TPU (TensorFlow), Arm avec son DynamIQ, Apple avec CoreML sont des voies pour ce qui est d'accélérer les choses.
Je pense que la révolution AI va bouleverser les choses bien plus que la rivalité x86-arm. Il se peut très bien que l'on finisse avec des core arm qui pilotent des chips ai spécialisés...

avatar fte | 

@Stardustxxx

Hum, des révolutions annoncées il y en a eu plusieurs déjà, comme les systèmes experts par exemple, ou le big data map reduce.

*Peut-être* que le ML va vraiment boulverser l'informatique. Peut-être.

Ou alors, et c'est certainement moins risqué de parier sur cette alternative, le ML trouvera ses quelques usages de niche et passera de mode, comme les révolutions annoncées précédentes.

avatar Stardustxxx | 

@fte
"Ou alors, et c'est certainement moins risqué de parier sur cette alternative, le ML trouvera ses quelques usages de niche et passera de mode, comme les révolutions annoncées précédentes."
Peu probable.
Les systèmes experts c'est techno des années 70-80, nous sommes en 2017.

Le machine learning, le deep learning, l'AI soft, etc... sont la pour rester, ca resout deja certains problemes avec plus de reussite que les humains : reconnaissance audio, synthèse audio, reconnaisance d'objet, etc.. Et on est encore au début.

avatar C1rc3@0rc | 

Ben justement, on utilise aujourd'hui surtout des systemes experts simples dont les moteurs d'inferences se resument a du pattern matching. La puissance d'inference a ete remplacé par l'exhausitivité du motif de correspondance.

Les systemes de reconnaissance de formes (visuelles ou n'importe) sont des vieux systemes des annees 80/90.

La partie "speech" de Siri, date du debut des annees 90. L'efficacité algoritmique n'a pas augmenté d'un iota, la seule difference c'est qu'au lieu d'avoir un supercomputer avec son teraoctet de données de l'epoque, aujourd'hui on a des datacenter d'hexaoctet de données connecté a des smartphones qui ont la puissance d'un supercomputer de l'epoque... et quant un "speech" n'est pas dans la base et que le matching ne se fait pas, on refile le travail a un gars qui analyse la phrase et la rentre, avec la reponse, dans la base de données.

La tres grosse avancée aujourd'hui en terme de reconnaissance de formes en temps reel, c'est la multiplication des capteurs et l'augmentation de leurs "resolution", avec en plus des unités de pretraitement capable de sortir des formes pre-recherchées (vectorisation pour l'image) et que les flux de ces capteurs sont moulinés par des floppés de core (Nvidia en fait pour l'automobile par exemple)

avatar Stardustxxx | 

@C1rc3@0rc
"L'efficacité algoritmique n'a pas augmenté d'un iota n'a pas augmenté d'un iota"
Ca ne veut rien dire, l'algo est peut-etre deja optimisé. Et tout ce que ca voudrait dire c'est qu'il n'est pas efficace pour resoudre le pb en question.

"Les systemes de reconnaissance de formes (visuelles ou n'importe) sont des vieux systemes des annees 80/90."
Oui bien sur, et dans les années 80, ces systèmes dépassaient en performance les humains comme c'est le cas actuellement.

Alors oui toutes les technos dans le domaine de l'AI ont une partie de leurs origines dans les années 70-80-90, mais ce sont les avancées récentes qui ont permis d'avoir des résultats vraiment probant. L'accès a des quantités massives de données est une des raisons des succès récent, mais également les mecs qui travaillent dans le domaine ont aussi bien avancé les recherches, c'est les 2.

"(vectorisation pour l'image) et que les flux de ces capteurs sont moulinés par des floppés de core (Nvidia en fait pour l'automobile par exemple)"
Oui nVidia, et eux ils parlent d'AI pour décrire tout cela.
Donc qu'il fasse une vectorization de l'image puis un traitement statistique, ou bien un autre process n'a aucune importance, c'est de la cuisine interne. Ca utilise du deep learning.

avatar C1rc3@0rc | 

@Stardustxxx

Intel a un probleme: la quasi totalite de son activité repose sur le x86, et le x86 est assis sur un principe monopolistique.
Si le x86 perd son monopole, Intel n'existe pas.
On le voit dans le mobile, le x86 est en tres, tres forte concurrence, malgre des effort financiers astronomique: Intel n'y existe pas.

Intel tire aujourdhui ses benefices massivement du datacenter, et cette activite lui permet de financer le maintien du monopole x86.
Donc Intel, depui le depart d'Otellini et dans une phase de transition, mais cette phase est longue, et pour l'instant Intel ouvre plusieurs voies, mais n'a pas d'architecture de remplacement pour le x86.

A cette situation deja dramatique de dependance, AMD vient de marquer 2 enormes coups contre Intel avec le Ryzen. D'une part AMD montre que quelqu'un d'autre qu'Intel peut faire aussi prerformant pour beaucoup moins cher, et en plus AMD casse la strategie d'Intel de terre brulée avec ses processeurs sans unité graphiques, ce qui redonne de l'oxygene a AMD, qui gragne de l'argent avec ses GPU mais aussi a l'ennemi mortel d'Intel, Nvidia!

La, c'est Microsoft, l'ancien complice, qui met un cout de couteau dans le dos d'Intel. Parce qu'il faut bien s'en rendre compte, le monopole x86 repose sur Windows (et DOS). Sans le besoin de la retrocompatibilité ascendante, donc les vieux programme tournant sur Windows, le x86 pouvait etre remplacé a tout moment par meilleur, et des meilleurs y en a eu un paquet, mais ils se sont fait tous flinguer par Wintel.

Aujourd'hui Intel sait que le x86 ne peut plus faire illusion et ne peut pas evoluer. Donc Intel tente par tous les moyens de ganger du temps en frainant ARM de toutes les manieres possible. Le coup bas ici, n'est pas le premier, et certainement pas le dernier, mais ce qui est certain aussi c'est qu'ARM a gagné depuis un moment, Intel ne peut que retarder l'agonie final du x86.

Apres, concernant l'IA et les processeurs dediés a l'IA.
Deja aujourd'hui il est question de big data et pas d'IA. On fait du traitement statistique de données immenses et on nomme ça "machine learning" mais ça n'a que tres peu a voir avec l'IA.
Ensuite les processeurs dediés a l'IA. Cette voie a ete teste dans les annees 70 et 80, sans succes. Et le probleme n'est pas technoloogique, mais theorique. On a besoin d'unites de traitement adaptatives, et ça on sait pas faire.

Aujourd'hui, on a besoin, pour le big data, de processeurs capablent de traiter des flots vectoriels immenses. Pour ça on a besoin de 2 choses: des core tres rapide et du multicore massif. Et d'un jeu d'instructions simple taillé et optimisé pour le multiprocessing massif. Le GPGPU est ce qui s'en approche le plus. Et ce qui est le moins compatibles, c'est... le x86.

Enfin tu parles d'IBM. Regardes ce qu'IBM fait avec le POWER9 associé avec les processeurs vectoriels de Nvidia (et CUDA). On a la une voie sacrement prometteuse pour le traitement du big data.

Au final, Intel avec son x86 se trouve coincé sur toutes les voies: le mobile, le HPC, le serveur et maintenant le PC...

avatar Stardustxxx | 

@C1rc3@0rc
"Aujourd'hui Intel sait que le x86 ne peut plus faire illusion et ne peut pas evoluer. Donc Intel tente par tous les moyens de ganger du temps en frainant ARM de toutes les manieres possible. Le coup bas ici, n'est pas le premier, et certainement pas le dernier, mais ce qui est certain aussi c'est qu'ARM a gagné depuis un moment, Intel ne peut que retarder l'agonie final du x86."
Intel a toujours defendu bec et ongle le x86, rien de nouveau.
ARM a gagné quoi ? Le monopole sur mobile, sur le desktop arm est inexistant, pour les servers pareil, c'est le x86 qui a le monopole.

"Apres, concernant l'IA et les processeurs dediés a l'IA.
Deja aujourd'hui il est question de big data et pas d'IA. On fait du traitement statistique de données immenses et on nomme ça "machine learning" mais ça n'a que tres peu a voir avec l'IA."
IA, deep learning, machine learning. meme chose c'est le mot d'usage. On est loin de parler de conscience artificielle.

"Ensuite les processeurs dediés a l'IA. Cette voie a ete teste dans les annees 70 et 80, sans succes. Et le probleme n'est pas technoloogique, mais theorique. On a besoin d'unites de traitement adaptatives, et ça on sait pas faire."
Années 70-80, nous sommes en 2017. On reparle des CPU des années 70 pour rigoler un peu...
AlphaGo ce n'est pas de la techno des années 70.

" Le GPGPU est ce qui s'en approche le plus. Et ce qui est le moins compatibles, c'est... le x86."
Et pourtant Google fait des processeurs TensorFlow pour accelerer le machine learning, ce n'est pas du GPU mais du chip custom, ultra efficace.

"Enfin tu parles d'IBM. Regardes ce qu'IBM fait avec le POWER9 associé avec les processeurs vectoriels de Nvidia (et CUDA). On a la une voie sacrement prometteuse pour le traitement du big data."
Regardes le chip neuromorphique d'ibm, et tous leurs projets dans ce domaine.

avatar C1rc3@0rc | 

@Stardustxxx
«IA, deep learning, machine learning. meme chose c'est le mot d'usage. On est loin de parler de conscience artificielle.»

Non, deep learning et machine learning sont des abus de langage pour decrire des traitements statistiques de set de données gigantesques. Le seul point commun avec l'IA c'est l'usage des traitement statisitiques bayesiens et ça s'arret la. L'approche deep learning et machine learning consiste a utiliser du pattern matching haute performance en mettant en relation tres rapide des bases de données exhaustives avec des flots de donnees pre-analysés, il n'y a ici rien qui soit de l'inference, de la deduction ou meme du calcul avec backtracking... Il y a juste des mise des bases de donnees exhaustieves et de la vitesse de traiement.

Apres, il y a du datamining (analyse et extraction de donnees signifiantes) a larges echelles, mais pas en temps reel, qui lui va utiliser des algorithmes statistiques poussés pour faire sortir des "motifs" de correspondance cachés dans des flots de données massif. Ces outils mathematiques sont relativement moderne, mais n'ont rien non plus a voir avec l'IA.

Tout ce qu'on utilise de l'IA aujourd'hui ce sont des systemes developpés dans les annees 80. Y a pas grand chose de neuf et la plupart des systemes (moteur d'inferences, processus deductif, metaprogramme,...) ne sont pas utilisés.

En gros on utilise des systemes de force brute, algoritmes gloutons,... sur des sets de données gigantesque, remplaçant "intelligence" par l'exhaustivité et la puissance de traitement simple mais massive.

TensorFlow c'est pas du neuf. C'est des vieux algo, theorie des graphes, qui ont ete optimisé pour tirer partie du GPGPU (surtout sur CUDA) (resolution de matrices) qui permet d'appliquer le traitement massivement parallele sur des gros set de données. C'est juste du pattern matching, plus efficace parce que plus exhaustif. Mais a part la puissance de traitement, rien de neuf.

AlphaGO a priori c'est aussi un vieux machin dopé au bigdata. La machine est capable de comparer des "chemins" de victoire a travers une cartographie exhaustive de positions. L'avantage de la machine sur l'humain c'est sa vitesse de comparaison et l'exhaustivité (precalculé) des positions possibles. C'est ce qui lui donne la possibilité de sortir des chemins de jeu qui sont inhabituels, parce que l'humain lui a une memoire limitée et une vitesse de calcul beaucoup trop lente.

Apres, je ne dis pas qu'il n'y a pas de recherche, et IBM est a la pointe (comme pas mal d'universités, comme l'ETHZ, l'EPFL, pas mal d'unités a l'INRIA,...), mais lorsque l'industrie parle de machine learning, deep learning, c'est pas de l'IA, et la plupart du temps les techno viennent des recherches d'il y a quelques annees en climatologie, en finance, en marketing de masse,... tout ces domaines qui font du traitement massivement paralleles sur des sets de données immenses, mais que reste de la statistique et hors de l'IA.

Le fait est que machine learning c'est un terme marketing pour t'expliquer que si la puissance de ton PC stagne mechament, c'est pas grave, derriere tu finances indirectement des datacenter gigantesques qui font du traitement "intelligents" et que tu n'as donc pas besoin de puissance sur ton bureau, le cloud va resoudre tout tes problemes... sauf que justement non.

avatar Stardustxxx | 

@C1rc3@0rc
"Non, deep learning et machine learning sont des abus de langage"

Oui ce sont des abus de language, on est sur macg, on est pas en train de disserter un thèse de phd. Google, Apple, Facebook, IBM, ARM, ... l'utilisent tous le terme AI, donc bon, si tu veux faire le puriste vas y ;) On est pas en train de parler de hard ai.

Ouais certains algo ont été inventé dans les années 90, et c'est maintenant avec le volume de donnée qui leur permet d'être performant (imagenet).
Ce qui est sur, que les algos on été raffiné, de nouveaux algo ont été trouvé, et surtout ca passe du domaine de la recherche au privé.
Autant c'est bien joli les découvertes en labo, l'accès au grand publique est tout autre chose, et c'est de cela dont on parle, la démocratisation. On ne vas plus utiliser les CPU parce que ca été inventé dans les 50-70 si on suit ton raisonnement ?

"Le fait est que machine learning c'est un terme marketing pour t'expliquer que si la puissance de ton PC stagne mechament"
La puissance stagne parce que l'on ne sait pas utiliser le multi-core efficacement, a un moment inutile de multiplier les core ca sert a rien, Apple le démontre très bien avec ses cpu arm.
Il faut des nouvelles approches plus approprié pour résoudre les problèmes, a priori tout ce qui est sous l'étiquette Machine Learning a l'air efficace, comme le démontre la dynamique des grands acteurs.

"derriere tu finances indirectement des datacenter gigantesques qui font du traitement "intelligents" et que tu n'as donc pas besoin de puissance sur ton bureau, le cloud va resoudre tout tes problemes... sauf que justement non."
Et tu dis quoi de Apple qui fait son analyse sur l'iPhone, justement pour pas a avoir a envoyé sur le cloud ?
La tendance est deja la pour ce qui est de déporter une partie de ces calculs sur du silicon spécialisé.
Alors oui pour le moment, une grosse partie dépend du cloud, mais cela va changer.

avatar poulpe63 | 

@Hideyasu : vu, qu'entre autre, la PS4(pro) et les Xbox One (S/X) tournent sous x86, j'en doute fortement. Finalement, ARM ne semble concerner (quasiment) que les appareils mobiles ou ultra mobile. Et pour le moment, les plus beaux jeux tournent sous architecture x86 (voir le dernier E3 pour s'en convaincre)

avatar LeGrosJeanLou | 

@poulpe63

Je ne pense pas qu'une console sortie aujourd'hui soit très représentative de ce qui va se passer dans les prochaines années, et je me rangerai bien derière l'avis de Stardustxxx sur ce coup. J'ai toujours été persuadé qu'Apple basculerait sur architecture ARM et finalement elle a choisi une voie mixte avec le coprocesseur de la TouchBar.

Avec un core ARM dédié à l'IA cette hybridation va sans doute aller plus loin encore à l'avenir.

En tout cas aujourd'hui je serais bien incapable de parier sur l'une ou l'autre architecture.

avatar C1rc3@0rc | 

@LeGrosJeanLou
Le choix de faire des consoles basées sur l'APU d'AMD est un choix economique plutot qu'un choix technologique.

L'APU c'est surtout un GPU qui embarque un CPU minimaliste adpaté a faire du dispatch pour les unités GPU, et il a un cout qui est tres faible, surtout qu'au moment du choix AMD etait aux abois et a du accepté un prix "tres competitif"

Aujourd'hui, on peut tout aussi bien faire de meme, et mieux encore, avec un noyaux ARM et des core graphiques avançés. S'il y a une prochaine generation de console, elle sera construite sur un GPU ultrapuissant piloté par un ARM.

Le choix d'Apple?
Abandonner le Mac!
C'est ce choix que traduit la stagnation et la regression des Mac jusqu'au debut 2017.
Je pense que Cook etait persuadé que l'iPad et l'iPhone pourraient remplacer le Mac a court terme. Les investissements sur le Mac ont ete abandonné et l'idee a ete de faire le minimum syndical pour maintenir cette production. Cette strategie explique a elle seule la regression de puissance qu'on a observé sur plusieurs Mac et la stagnation des autres.

Imaginons qu'Apple ait sorti un vrai successeur du Macbook Air sur ARM. On avait un ultrabook avec une autonomie de plus de 20 heures. Jamais Apple n'aurait pu le vendre plus cher qu'un Macbook Air (le sur tarif ne pouvant pas etre attribué au x86 d'Intel). Comment alors vendre de l'iPad pro a 1000$?

Quant au touch bar, faut pas aller chercher tres loin. The Verge a pondu un excellent article sur la Touch Bar ou il demontre que ce gadget est en fait une Apple Watch (processeur et WatchOS).
Pourquoi, pour une fonction si simple developper un truc aussi complexe? Parce qu'il n'y a pas eu grand chose a developper... et que cela permet a Apple de recuperer de la rentabilité sur la production de l'Apple Watch.
Pour Apple les choses sont problematiques: l'Apple Watch devait se vendre a plus de 30 millions d'unités par ans pour atteindre l'objectif de rentabilité. Apple en livrerait environs 10 millions par an et cette tendance baisse.
Et ce qu'il y a de plus cher dans une Apple Watch c'est le processeur.
Recycler le processeur et une partie de l'electronique de la surproduction dans la touch bar, c'est augmenter la rentabilité, d'autant qu'Apple fait payer tres cher ce Touch Bar dans des portables ou ça ne sert a rien.

Au final le fait de penser qu'Apple va developper des coprocesseurs ARM pour palier aux deficiences du x86 c'est de la foutaise.
Intel fait tout pour empecher cette situation (le x86 embarque toujours plus d'unités de la CM) et les Ax portables d'Apple sont aujourd'hui aussi puissants que les Core i5. Donc on est par sur une complementarité mais sur de la concurrence. Plus encore, l'architecture ARM est bien plus efficace que le x86 pour collaborer avec des coprocesseurs (des vrais) et des GPU...

Apple n'a rien fait avec les Mac d'autre que sa politique de "laisser mourrir" appliquée aux iPod. Apple aurait pu prolonger la vie des iPod, suffisait d'en faire des baladeurs hifi au niveau d'Astel &Kern, pas tres difficile.
Sauf que iPod etait alors en concurrence avec iPhone. Et pour Apple il vaut mieux avoir un produit de masse generaliste (quitte a en faire une usine a gas) sur lequel concentrer la rentabilité grace a des economies d'echelles, que proposer les meilleurs et les mieux adaptés produits au client.

avatar pim | 

On fait des prospections sur l’avenir, mais si on parle du présent, l’iPad 10,5 pouces fait mieux sous Geekbench 4 que la Microsoft Surface. D’un côté une puce ARM (A10X) et de l’autre un Core i5. Intel a du souci à se faire !

avatar C1rc3@0rc | 

Oui, Intel se fait du souci, mais cela date de bien avant. En fait la Surface a ete une claque pour Intel, parce qu'Intel esperait que MS puisse produire la Surface qu'avec des Atom (devenus Core M, puis rebatisé Core ix Yxxx sournoisement). Mais, pas de chance, les performances de l'Atom etaient trop ridicules pour le produit et MS vend des Surface Pro avec des vrais Core ix a la place.
Et puis le Surface Pro c'est un TabletPC, pas une tablette comme l'iPad ou les Samsung.

Ceci dit, on ne le repetera jamais assez les resultats de Geekbench ne signifient rien en terme de puissance processeur, surtout entre architectures. Un score Geekbench signifie 2 choses:
- le score du processeur sur Geekbench (et encore, plus on repete les test moins on a de constance)
- l'efficacité du mode "bench" du processeur sur Geekbench (dont le mode super turbo chez Intel)

Pour le reste, y a des tests bien plus valides pour tester la puissance d'un core (Super Pi) et des tests exhaustifs d'applications, les plus long et repetés possibles.
Ceci, dit, cela n'enleve rien au fait que les ARM pour mobile sont au niveau des Core i5 pour notebook et desktop (peut etre pas le Core i5 7600 K, mais pas loin a frequence egale) et pour une efficacité energetique incomparable.

avatar sachouba | 

Intel commence à avoir très peur.
Si seulement ils pouvaient mettre toute leur énergie dans le développement de nouvelles architectures, au lieu d'essayer de mettre des bâtons dans les roues de la concurrence...

avatar fte | 

@sachouba

Ils ont essayé, et personne n'en a voulu. Malgré quelques qualités remarquables.

ARM n'a pas la place qu'il a pour ses vertus, l'écosystème, ou parce que ce n'est pas du x86, mais de part la licence ARM.

Intel garde son jardin comme une oie revêche.

avatar C1rc3@0rc | 

@fte

«Ils ont essayé, et personne n'en a voulu.»

Mais bien sur.
C'est pour cela que HP leur a foutu un proces au cul le jour ou ils ont voulu arreter le developpement de l'IA64...

Et accessoirement, s'il avaient eu la moitié de la politique de promotion et subvention de l'Itanium de celle qu'ils ont developpée pour le Xeon, le parc actuel de serveur sous Xeon tournerait avec de l'Itanium. Au contraire ils ont surtarifé l'Itanium et ont tout fait pour l'enterrer!

L'EPIC ( initialement developpé par HP, puis codeveloppé avec Intel ensuite, Intel qui en tant que fondeur en etait devenu le producteur...) avait un enorme potentiel. C'etait une architecture concue a la base pour executer plusieurs instructions par cycle, tout en gardant l'efficacité du RISC.
Seulement, l'EPIC posait un probleme strategique a Intel: les performances des softs produits pour l'EPIC reposaient sur l'efficacité du compilateur.

Et l'idee d'Intel etait avec le x86 de faire l'inverse, que ce soit le processeur qui reste le seul responsable des performances ( ce qui est le cas des x86, qui sont en fait des machines virtuelles x86, qui compilent et optimisent a la volee les instructions et les executent sur l'unité la plus adaptee)

Et Intel avait fait aussi un beau succés avec le 80960 (1984), un processeur RISC..., qui etait meme un best seller.
Le i960 avait ete developpé suite a l'echec du iAPX 432, un processeur dedié a l'intelligence artificielle, avec des fonctions avancées de ces tentatives dans le domaine (dont la gestion de la memoire avec un garbage collector...). Et l'efficacité du i960 etait remarquable et il etait conçu pour des applications de haut niveau d'exigence et de securité (fault-tolerant) et deja pour optimiser le traitement de la programmation orientée objet...
Mais la aussi Intel a coulé son produit avec un marketing a l'envers.

Intel avait aussi developpé un autre RISC, le i860, beneficiant d'une forte promotion a son lancement, mais coulé aussi commercialement pour ne pas faire d'ombre au x86 et parce que le choix d'architecture interne (pipeline) du i860 rendait son optimisation compliquée pour le compilateur (un comble pour un processeur RISC)

Andy Grove a reconnu d'ailleurs le probleme, avoir lancé le i860 et le 486 en meme temps, qu'ils se concurrençaient (avec un avantage d'efficacité pour le i860) et que le choix politique a ete fait de tuer le i860 pour favoriser le 486 (moteur de monopole avec la compatibilité x86).

Intel dispose aussi d'une licence etendue ARM... qui lui a permis de mettre du beurre dans les epinards avec les XScale. Mais la aussi la strategie monopolistique arc-boutée sur le x86 a eu raison du Xscale qui a ete revendu a Marvell.

avatar fte | 

@C1rc3@0rc

J'ai arrêté dès que tu as dérapé sur la relation Intel - HP.

Si tu écris tout ça pour les autres lecteur, fais-toi plaisir. Si c'est pour moi, cesses de te fatiguer, je ne lis plus dès que x86 apparait. C'est arrivé plus tôt ici, ce n'est pas la norme.

CONNEXION UTILISATEUR