Fermer le menu
 

Pourquoi la transition vers des Mac ARM est inévitable

Christophe Laporte | | 19:05 |  422

Plus de dix ans sans transition. Quand on connait l’histoire du Mac, on sait qu’Apple fait de temps en temps des choix radicaux pour ses ordinateurs : des Mac 68k au PowerPC, du PowerPC aux puces Intel…

Sommes-nous à l’aube d’une nouvelle transition ? La documentation d’Apple mise à disposition des développeurs peut le laisser penser. La firme de Cupertino a pour habitude de lister toutes les différences en ce qui concerne ses API d’une version à l’autre (un procédé courant). Dans celle relative au Kernel de Sierra, Apple a ainsi retiré plusieurs références à d’anciens processeurs Intel qui ne sont plus gérés par macOS comme les puces Merom. Jusque-là, rien de bien surprenant. La vraie surprise est de constater que tout en dessous, on voit qu’elle a ajouté la prise en charge de la famille de processeurs ARM Hurricane. Ce n’est pas une puce connue, sans doute un nom de code. Hurricane signifie en anglais, rappelons-le, ouragan. Voilà qui a le mérite d’être clair.

En tout cas, comme le note iDownloadblog, ce nom de code colle bien avec les noms de code des anciennes puces d'Apple. Le petit nom de l'A7 était Cyclone, A8 Typhoon et A9 Tornade. Hurricane serait le nom de code de l'A10, d'après Hardware.fr, qui s'appuie sur les découvertes de Chipworks qui a l'habitude d'autopsier les composants des nouvelles puces d'Apple.

Qu’Apple étudie la possibilité de produire des Mac ARM, cela n’a rien d’étonnant. Cela fait maintenant quelques années qu’elle explore cette possibilité comme elle l’a fait en d’autres temps pour d’autres architectures. Mais va-t-elle passer à l’acte ?

Le très réputé Ming-Chi Kuo tablait sur de tels ordinateurs pour 2016 ou 2017 (lire : Mac ARM : dans les deux ans avec un processeur A10X ?). A l’époque, il estimait que l’A10X pourrait être le futur moteur d'un Mac ARM. Avec le recul, ses propos sont très intéressants. Les tests effectués il y a quelques jours avec Geekbench montraient que le processeur A10 Fusion de l’iPhone 7 n’avait plus grand-chose à envier en termes de puissance brute à un MacBook Air. Alors certes, Geekbench ne reflète pas forcément la réalité, mais la dynamique et la montée en puissance penchent clairement pour le camp ARM.

Pour Apple, la difficulté est avant tout matérielle contrairement aux autres transitions. D’un point de vue logiciel, elle pourrait être plus indolore pour les développeurs. La compatibilité ne devrait pas être un problème. Apple maitrise les outils de développement (du langage de programmation aux API en passant par les compilateurs), elle contrôle la distribution avec le Mac App Store et a plus qu’un pied dans le monde ARM depuis maintenant une décennie ou presque.

Catégories: 
Tags : 

Les derniers dossiers

Ailleurs sur le Web


422 Commentaires Signaler un abus dans les commentaires

avatar awk 30/09/2016 - 21:06 (edité)

@_Teo_

Plutôt de strictement ne rien y comprendre dans le cas de notre camarde ;-)

avatar Pieromanu 01/10/2016 - 10:14 via iGeneration pour iOS

@awk :
Ah définitivement nécromancie alors : )

avatar Stardustxxx 30/09/2016 - 20:03

x86 ou ARM sont des architectures en fin de course. La raison, la loi de Moore qui arrive a sa fin.
D'ici 5 ans, il n'y aurat plus beaucoup de progrès en finesse de gravure.

La solution : processeur Neuromorphique, memristors, architecture memoire radicalement différente.

IBM a fait fonctionner des réseaux de Deep Learning sur un de leur chip Neuromorphique avec des résultats dépassant les espérances. Un processeur TrueNorth consomme 100mW pour 5.4 milliards de transistors.



avatar cv21 30/09/2016 - 20:07

Dans ce cas, Macg a déjà écrit le début de son futur article !

"Quand on connait l’histoire du Mac, on sait qu’Apple fait de temps en temps des choix radicaux pour ses ordinateurs : des Mac 68k au PowerPC, du PowerPC aux puces Intel…" et Arm.

avatar awk 30/09/2016 - 20:45 (edité)

@Stardustxxx

"Les prévisions sont difficiles, surtout lorsqu’elles concernent l’avenir"
Pierre Dac

Si tu savais en une quarantaine d'année le nombre de fois où j'ai lu l'annonce tonitruante de la mort éminente d'une technologie et de même celle de la pure explosion d'une autre approche qui va tout rendre obsolète. :-)

Quant à la loi empirique de Moore, il ne faut pas en faire l'Alpha et l'Omega de ces questions.

avatar Stardustxxx 02/10/2016 - 16:33

@awk
""Les prévisions sont difficiles, surtout lorsqu’elles concernent l’avenir"
Pierre Dac"

Absolument, mais cela n'empeche pas de prevoir les tendances.

Pour la loi de Moore, il y a des contraintes physiques, donc on sait qu'elle va se terminer. Ca coute de plus en plus cher de diminuer la finesse de gravure avec des gains de plus en plus faible. Il reste 3 finesse de gravure avant d'atteindre les limites physiques du Silicium (10, 7 et 5nm).
Un fois a 5 nm ca va etre difficile d'augmenter la performance des CPU. Augmenter le nombre de transistor ne fonctionne pas, tu rentres dans des problemes de propagation d'horloge.

De plus Google, Microsoft et autres utlisent deja des "processeurs customs" : TensorFlow pour le Deep Learning ou bien des FPGA pour accelerer Bing. Pourquoi parce que l'architecture des CPU actuel n'est pas adapté pour cela.

Le Deep Learning est en train de revolutionner l'informatique moderne : Google, IBM, Facebook, Microsoft, Baidu l'utlisent tous, et investissent a fond dedans. Plusieurs compagnies travaille sur des processeurs qui implementent des reseau de neurones, IBM a meme prouve l'efficacite de leur processeur neuromorphique pour executer des reseaux de neurones avec des resultats impressionants.
Samsung a associe un reseau de neurone avec un capteur video pour augmenter les performances de facon considerable.

Comme précisé dans l'article il est très probable que nous ayons des chips de plus en plus spécialisé, mais il faudrait toujours un cpu pour coordonner tout le monde.
Donc oui je considère que ce ne sont pas les architectures actuelles x86 ou ARM qui permettrons des gains significatif en terme de puissance ou d'efficacité énergétique, par contre les processeurs neuronales et les processeurs quantiques sont nettement plus prometteur.

Rappelons q'un cerveau humain consomme 20W, cela prouve l'efficacité des réseaux de neurone ;)

avatar awk 02/10/2016 - 16:41

@Stardustxxx

Sur les tendances que tu esquisses on ne peut évidement qu'être en accord.

La loi empire de Moore touche son asymptote, je dirais enfin tant elle est annoncé depuis longtemps ;-)

Le deep-learning a le vent en poupe et bien des acteurs, à commencer d'ailleurs par Nvidia, y consacre,t beaucoup de moyens.

Après sur tous ces enjeux, je ne vois pas de révolutions sur nos machines de tous les jours dans un avenir de quelques années, mais ce n'est peut-être que le produit d'une vue trop courte ;-)

Ce que tu évoques est pour moi encore pour longtemps du ressort des entreprises et de produit grand public qui n'auront pas vocation à se substituer à nos ordinateurs tel les véhicules autonomes par exemple.

avatar Stardustxxx 02/10/2016 - 17:01 (edité)

@awk
Pour la loi de Moore, sa fin est connu depuis longtemps, c'est une question de contrainte physique. Cette contrainte n'a pas changé. ;)

Mais cela veut aussi dire que dans 5 ans le seul moyen d'augmenter la puissance des processeurs devrait venir d'une autre technologie. 5 ans c'est tres court. Et quand on voit les progrès effectuer sur des réseaux de neurone en silicium, d'ici 5 ans on devrait aussi avoir des joli gains.

Un co processeur neuronale sur un téléphone permettrait de faire la classification de photos sur le téléphone de façon ultra efficace. Pour rappel iOS fait 3 milliards d'opération par photos pour les analyser sur leur dernier iPhone.

On peut aussi imaginer que les cpu ARM ou Intel intégre des réseaux de neurone pour certaines partie. Par exemple pour le prédicteur de branche (je crois avoir lu que certains constructeurs etaient deja en train de tester cela), un reseau de neurone pourrait etre particulièrement efficace.

Tout cela pour dire que o

avatar awk 02/10/2016 - 17:05

@Stardustxxx

"Pour la loi de Moore, sa fin est connu depuis longtemps, c'est une question de contrainte physique. Cette contrainte n'a pas changé. ;)"

Si tu regarde l'histoire de la micro-électronique l'horizon infranchissable de la poursuite de l'intégration a été annoncé de très nombreuse fois depuis au moins les années 80 :-)

Et à chaque fois des solutions techniques ont été trouvée, mais là effectivement on touche vraiment le mur :-)

avatar awk 02/10/2016 - 17:08

@Stardustxxx

Je ne connais pas ton âge, mais tu es peut-être trop jeune pour avoir connu par exemple la révolution annoncée du passage du Silicium à l'Arséniure de gallium.

Où celle très médiatisée en son temps des mémoire à bulles et j'en passe ;-)

avatar Stardustxxx 02/10/2016 - 19:27 (edité)

@awk
Pour avoir étudié les semi-conducteurs au debut des années 90, j'ai entendu les promesses de l'AsGa.
J'ai aussi vécu le mur de l'augmentation de la fréquence des CPU. Qui prouve d'ailleurs que tout a une limite, et que l'on ne peut pas augmenter linéairement sans limite.
Pour les CPU traditionels, une fois les limites de gravure atteinte, les possibilité d'augmentation de puissance seront limités. Des design radicalement différents seront nécessaire.

avatar awk 02/10/2016 - 20:29

@Stardustxxx

Il semble que nous ayons vécus les mêmes époques ;-)

avatar awk 02/10/2016 - 17:11 (edité)

@Stardustxxx

"Mais cela veut aussi dire que dans 5 ans"

Si tu es sur de telles horizon cela me semble effectivement plus qu'envisageable d'avoir des applications du deep-learning sur des produits de masse d'informatique personnelle basé sur des circuits dédiés.

Je suppose que tu as vu l'emphase stratégique que met Nvidia sur ce type d'enjeux, c'est clairement pour eux le relais de croissance à ne pas rater.

avatar Stardustxxx 02/10/2016 - 19:36 (edité)

@awk
Il y a un an je n'aurais pas pensé cela. Mais en voyant en progrès effectué depuis, l'arrivée de plusieurs processeur basé sur des neurones, les avancées de nVidia avec les CPU pour voiture autonome et les résultats quand on associe hardware et software.
Sans compter les compagnies derrière cela : Samsung, nVidia, IBM, Google, Microsoft, Facebook...
Même Apple est dans le deep learning avec Siri, Mail, Plan, combien de temps avant qu'ils produisent leur propre chip.
En medecine, le deep learning prouve son efficacité dans beaucoup de domaine, dont la détection de cancer.
La classification d'image de facon automatique va etre un standard très rapidement, et ca va se faire sur le téléphone de facon automatique. Tout le monde veut pouvoir trier ses photos de facon automatique et pouvoir les chercher de facon plus naturel.

Bref, le deep learning, avec le blockchain, est la prochaine révolution informatique, et elle deja en marche. Donc oui d'ici 5 ans je pense que ces technologies commenceront a être intégrées dans nos téléphones (au moins ceux qui seront haut de gamme), dans 10 ans elles seront totalement démocratisées.

avatar awk 02/10/2016 - 20:33 (edité)

@Stardustxxx

Oui ça bouge assez vite et à un horizon de 5 ans je ne serais pas surpris de l'arrivée de produit B2C intégrant ce type de technologie, peut-être même un peu avant.

Ce qui est aussi intéressant c'est de constater que pour une fois ce ne sont pas les usages de l'informatique personnel qui sont le moteur des perspective de marché porteur provoquant de lourds investissement.

Mais les énormes perspective économique qu'ouvre la transition vers la locomotion autonome.

avatar Paquito06 30/09/2016 - 20:07 via iGeneration pour iOS

Est ce que l'informatique quantique arrivera bien assez vite pour reduire a nean les efforts fournis dans l'architecture ARM?

avatar awk 30/09/2016 - 20:46

@Paquito06

nop

avatar Pieromanu 01/10/2016 - 10:09 via iGeneration pour iOS

@awk :
Glop?!

avatar awk 01/10/2016 - 11:50

@Pieromanu

nop

avatar Pieromanu 01/10/2016 - 12:29 via iGeneration pour iOS

@awk :
Nop, ça ne veut rien dire. Nope veut dire quelque chose.

avatar awk 01/10/2016 - 12:37

@Pieromanu

"Nop, ça ne veut rien dire"

Ton manque de culture informatique est consternant, NOP c'est le mnémonique pour No Operation, sur une discussion consacré au CPU c'est un usage plutôt amusant :-)

En gros le message est il faudra bien des cycles avant que l'informatique quantique soit là.

nop

avatar Pieromanu 03/10/2016 - 11:07 (edité)

@_@

Tombe le masque Sheldon, on t-as reconnu!

avatar Stardustxxx 02/10/2016 - 19:38

@Paquito06
Non, les ordinateurs quantiques résolvent d'autre type de problèmes.
Pour casser des clés d'encryption, ils sont pas mal par contre.

avatar umrk 30/09/2016 - 20:21

En tout cas Intel sait qu'il doit redoubler d'efforts, s'il veut éviter ceci ..... Tout le contraire de l'absence de concurrence dans le duopole Wintel ... qui est la cause de sa stagnation ....

avatar awk 30/09/2016 - 20:46

@umrk

On a enfin l'explication simpliste que nous attendions tous, merci.

Pages