Vers plus d'ARM et moins d'Intel dans les prochains MacBook Pro

Mickaël Bazoge |

La petite puce T1 présente dans les nouveaux MacBook Pro pour gérer la Touch Bar et Touch ID pourrait bien être un cheval de Troie signé Apple. D'après Bloomberg, le constructeur a bien l'intention de confier à cette puce plus de fonctions dans l'avenir, quitte à déshabiller petit à petit les processeurs Intel.

Ce processeur, dont le développement a débuté l'an dernier, porte le nom de code T310. Basé sur une architecture ARM — la même au cœur des puces Ax des produits iOS —, il prendrait en charge des fonctions basse consommation, laissant donc le soin au processeur Core le traitement des tâches les plus lourdes.

Cliquer pour agrandir

Power Nap serait une des fonctions prises en charge par cette nouvelle puce nouvelle génération : présente dans OS X depuis Mountain Lion en 2012, elle a pour mission de récupérer les courriels, installer des mises à jour, synchroniser les rendez-vous, etc. pendant que l'écran est éteint et l'ordinateur en veille. Cette fonction consomme déjà peu d'énergie avec un processeur Intel, mais Apple veut aller encore plus loin et épargner au maximum la batterie. Un sujet particulièrement sensible, en particulier sur les derniers MacBook Pro.

De fait, cette puce T310 — T2 ? — aurait des connexions avec plus de composants que la T1 actuelle ; elle pourrait ainsi se lier d'amitié avec le stockage du Mac, et des composants réseau. On ne parle toujours pas de Mac ARM à proprement parler, Apple ayant visiblement choisi la politique des petits pas.

D'ailleurs, Bloomberg assure que le constructeur n'a pas en projet de lâcher Intel, du moins pas à court terme. Néanmoins, cela fait cinq ans qu'Apple explorerait la possibilité d'abandonner son partenaire de Santa Clara afin d'améliorer l'efficacité et les performances de ses ordinateurs. On pourrait rencontrer cette future puce dès les prochains MacBook Pro, plus ou moins programmés en fin d'année.

avatar anti2703 | 

Après les ordinateurs avec deux GPUs et un OS qui bascule automatiquement du plus puissant au plus économe, un ordi avec deux CPUs avec le même principe !
Qui a dit qu'Apple n'innovait plus ?! ?

avatar NestorK | 

@anti2703

En l'occurrence, c'est déjà ce que fait Apple avec le CPU de son iPhone 7 même si c'est du 100% ARM.

avatar C1rc3@0rc | 

C'est meme le principe de l'architecture ARM de reference avec ses 2 x 4 core qu'on retrouvent partout sauf chez Apple.

Par contre ce dont il est question dans l'article est tout autre chose.
On parle ici de transformer le Mac en un hybride iPad/PC.

Cela implique une tres grande complication le Mac, de l'OS et surtout une perte de controle de l'OS au profit de composants heteroclites et d'une tres grand complexité.

Les consequences sont helas assez faciles a imaginer: bug, dysfonctions et surtout failles de securités qui se multiplient.

Le concept n'est pas nouveau mais il a toujours echoué.
Un des probleme va venir du fait qu'on va avoir des "sous-OS" embarqués qui sont soit etre impossibles a mettre a jours, soit qui sont patchables, mais qui vont introduire des inconsistances dans la chaine de securité.

faut penser que chaque sous systeme va devoir communiquer avec les autres, soit celon un modele centraliste, soit de maniere collaboratif... on tombe ici sur des problemes de performances et de gouvernances qui sont extensifs.

J'espere qu'Apple va pas dans cette direction parce que sinon c'est la catastrophe assurée.
D'autant qu'aujourd'hui les processeurs ARM sont en mesure de remplacer les x86 en terme de puissance dans les usages les plus courrant du PC. Et pour Apple il serait plus economique de produire des A10 a 8 core et a haute frequence et performances pour les Mac et de desactiver des core et de baisser la frequence pour motoriser les iPhone. Le surcout de production a l'unité serait absorbé dans la masse: 300 millions d'unités ça en fait des economies d'echelles possible.

avatar Bigdidou | 

@C1rc3@0rc
"Les consequences sont helas assez faciles a imaginer: bug, dysfonctions et surtout failles de securités qui se multiplient."
"Le concept n'est pas nouveau mais il a toujours echoué"
"c'est la catastrophe assurée. "
"une impasse."
"c'est une catastrophe d'un point de vu conceptuel"

Vous êtes complètement passé à côté d'une grande carrière.
Votre vrai vocation, c'était cancérologue.

avatar Raikstorm | 

T n'a qu'a voir le MacBook Pro 2016 TouchBar, c'est le premier a intégrer un processeur ARM le T1 et il gère l'affichage de la TouchBar et le Touch ID, et aucun bug n'a été recensé jusqu'a présent et l'utilisation des deux composant est totalement transparente pour l'utilisateur. Donc crier a des futurs bug alors que la première intégration du processeur ARM dans le mac est une réussite !

il faut pouvoir arrêter de crier au scandale a chaque modification matérielle d'Apple... personnellement je trouve leurs choix jusqu'a présent justifié et judicieux

avatar vrts | 

qu'ils arretent d'innover et qu'ils nous foutent des nvidia 1080 + des vrais drivers graphiques optimisés, ce sera largement suffisant.

avatar House M.D. | 

@vrts

Tout le monde n'est pas gamer hein…

avatar toketapouet | 

@House MD

?‍? "Tout le monde n'est pas gamer hein…"

? +1, perso je n'en ai absolument rien à battre du GPU sur mon macbook pro, d'ailleurs quand j'y pense je le désactive, et si j'avais pu acheter un modèle sans, je l'aurais fait, même pour économiser 10€. Ca coûte cher, ça consomme, ça chauffe, ça peut bugger, ça peut crâmer, et ça ne me sert strictement à rien.

avatar occam | 

@toketapouet

L'utilité des GPU ne se résume pas au gaming, loin de là.
Le High Performance Array Processing devient possible à des prix très abordables, grâce à des GPU hautement optimisés.

Cherchez des démonstrations de CUDA (Nvidia), c'est assez décoiffant.

On aimerait savoir ce qu'il en est de l'OpenCL chez Apple, technologie d'origine maison, mais rendue Open Source, et qui semble évoluer et prospérer partout ailleurs. Sauf chez.
Ça, ce serait aussi de l'innovation.

Mais peut-être que des lecteurs de MacG ont des informations plus encourageantes.

avatar House M.D. | 

@occam

Disons qu'un GPU pour faire du GPGPU, je conçois ça dans des "machines de trait", autrement dit pas dans un ordinateur portable qui va le faire, certes, mais en tapant un maximum dans les (maigres) ressources de refroidissement à sa disposition.

Par exemple, même si c'est le CPU qui était utilisé en ce cas, je devais faire de la compression vidéo à la chaîne récemment, et bien mon MBPR 2012 a beau être 3x plus rapide que mon Mac Pro 2006, je préfère laisser tourner ce dernier plusieurs heures plutôt que le MBPR, ne serait-ce que parce que le portable va taper les 100 degrés et les 6000 trs/mn en ventilation, alors que le Mac Pro va taper tout juste 38 degrés et 20 trs/mn de plus qu'au repos.

Donc les gros travaux sur un portable ne me semblent qu'un pis-aller quand on est pas au studio. La machine n'est clairement pas faite pour ça, et la course au GPU extrême me paraît donc inutile. Par contre sur une tour, oui, l'utilité est là.

avatar occam | 

@House M.D.

« Par contre sur une tour, oui, l'utilité est là. »

Donc, encore une fois, la question est posée : quid du Mac desktop ?
Parce que un iMac retapé ne résoudra strictement rien.

Je laisse pour l'instant de côté la question de l'utilisation de l'utilisation mobile. Horses for courses, mais il y a des utilisateurs, dont je fais partie, qui ont des « computational needs » (je ne trouve pas l'équivalent en français) sérieux quand ils sont en déplacement. Surtout même en déplacement. Nous entendrons-nous dire encore une fois « changez de plateforme » ?

avatar House M.D. | 

@occam

Je pense que pour ce type d'usage l'avenir est à la carte graphique externe... faut juste attendre que ça se développe.

avatar C1rc3@0rc | 

Non la carte graphique externe est une impasse.
Sans parler de Thunderbolt, l'experience a ete tenté a plusieurs reprise depuis les annees 80, c'est une catastrophe d'un point de vu conceptuel et technique.

Le traitement GPGPU pur peut se faire avec un micro ou nano-serveur, mais on augmente tout de meme le cout et il faut que les calculs soient asssez long pour justifier la perte de temps et de performances lie a la connexion externe.

L'abandon du GPGPU dans les Mac n'est qu'une question de gonflement de la marge, pas une question fonctionnelle.

Apres l'usage d'un vrai GPU ne se limite pas qu'aux jeux, meme si le jeu est un gros marché dont le Mac pourrait beneficier.
Il faut voir que le GPU est obligatoire pour la VR, marché dont s'exclue le Mac, pour la video - marché dont s'exclue le Mac -, pour les traitements graphiques complexes -marché dont s'exclue le Mac - mais aussi pour le traitement general des flots de données de plus en plus important.

Le GPGPU "leger" et "quotidien" devient de plus en plus incontournable, et si les x86 sont aujourd'hui bardés de coprocesseurs vectoriels specialisés - dont le circuit graphique interne prend en charge une partie - ils restent tres loin des performances des vrais GPU et l'ecart se creuse de plus en plus.
Il faut voir aussi que depuis 3 generations coté ARM c'est la partie GPU qui progresse le plus, et ce n'est pas un hasard mais une necessité.

Avec l'arrivée de la 8k il va falloir aussi un vrai GPU pour traiter le flux et la c'est pas l'unité graphique du x86 qui va tenir. D'autant que l'unite graphique du x86 est dependante du TDP du processeur et qu'elle est soumise au throttling du processeur...

Un autre probleme se pose: Apple a abandonner OpenCL et OpenGL. A la place y a Grand Central et Metal. Le probleme c'est que ces API n'ont rien a voir avec le couple OpenCL et OpenGL, et que Grand Central n'est pas du tout fait pour controler un GPGPU comme l'est CUDA par exemple.

avatar Almux | 

Tout à fait. Mais, nombreux sont les pros qui ne connaissent pas les "gros travaux". La prod pour le web, ou de très courtes pubs peut, probablement, s'exécuter sur un portable... Mais, le terme "Pro" n'implique pas que ce soit un outil prévu pour tout faire.

avatar ovea | 

@House M.D.

GPGPU : Apple aurait les moyen d' innover en proposant un troisième axe de calculs lourds reparti

AE : c'est l'application typique de l'organisation autour d'une base temporelle … CEPENDANT, son intérêt post-prod propre à glisser vers la prod nous amène à revoir nos positions

Finder Time Machine : rien n'empêche Apple d'amender la stagnation de son systèmes de fichier graphique en le transformant en un outil DYNAMIQUE qu'on attend tous

Agents Conversationnels (IA) : la porte ? est grande ouverte pour que l'utilisateur organisé dégage des automatismes en laissant un oracle proposer de formaliser des évolutions dirigés ce déroulant sur une base temporelle … on appel sa un PROJET ?

Évolution cognitive

avatar ever1 | 

A chaque fois que je vous lis, je me marre, merci

avatar toketapouet | 

@Occam

J'entends bien, mais dans mon utilisation, le GPU intégré fait le travail parfaitement (Lightroom, Photoshop), je ne fais aucune différence avec ou sans ?

avatar vrts | 

@house MD : "La machine n'est clairement pas faite pour ça, et la course au GPU extrême me paraît donc inutile. Par contre sur une tour, oui, l'utilité est là."

qu'est ce qu'il ne faut pas lire... une 1080 ne sert pas qu'à jouer déjà, j'ai besoin de puissance CUDA portable.
Et, oui, ton MBP peut très bien passer des jours à calculer sans soucis, oui c'est fait pour ça, j'ai aussi un MBP de 2012 qui à fait des semaines de calculs non stop. 3D et After effects.
Si tu as peur d'abimer ton Mac, laisse le dans la boite.

Ta tour, quand tu as besoin d'être très mobile, tu l'oublies.

avatar House M.D. | 

@vrts

Ce n'est pas une peur irrationnelle d'abîmer la machine, c'est juste d'expérience après en avoir dépanné à la pelle qui venaient justement pour des soucis d'image venant d'un GPU flingué car mal refroidi...

5 ans à faire ça, et ça continue en solo, donc non, ce n'est pas irrationnel, c'est juste la cause principale de panne sur un MBP, hors maltraitance type chute.

avatar toketapouet | 

@House MD

Absolument, et c'est pour cela que quand j'y pense, je désactive le GPU dédié, à défaut d'avoir pu acheter un modèle qui en était dépourvu.

avatar Mysterium | 

C’est ce que j’aurais aimé de tout mon coeur, mais je penses qu’ils ont encore des problèmes pour l’intégrer sans que la machine ne surchauffe ou qu’elles fassent le bruit d’une machine à laver.

Ça fais mal de dire ça mais Apple s’est toujours positionné comme un machine ou le design, l’ergonomie et ce genre de choses passe avant quelconque performances. Je ne peux que soutenir cette idéologie en tant que graphiste. Cependant, aussi en tant que graphiste j’ai besoin de performance. Je penses qu’Apple en a conscience en penche sur ce problème - j’espère - . Quid des ingénieurs NVIDIA qu’ils ont engagé l’année dernière pour « construire l’avenir » ?.

avatar Ricky-sans-chaise | 

Bof..
Sony fait déjà ça avec sa PS4 depuis 2013 donc bon.
Lorsque la console est en veille (ou mode repos) elle va chercher automatiquement les mises à jour et on peut même lancer le téléchargement d'un jeu acheté, à distance, sans que la console se serve de son CPU principal.

avatar fte | 

Apple ? Oh non, ce n'est pas Apple.

C'est une très ancienne technique utilisée depuis fort longtemps dans divers secteurs. Plus récemment, la grande majorité des processeurs de mobiles sont dotés de coeurs rapides et de coeurs économes pour distribuer la charge selon l'usage, c'est une des caractéristiques clé des processeurs ARM. Coeurs asymétriques.

L'innovation serait de le faire au moyen de processeurs aux architectures et jeux d'instructions incompatibles, probablement avec une généralisation de la compilation en bitcode intermédiaire à macOS également (c'est le cas sur iOS et bien entendu avec Java qui utilise du bytecode et une virtual machine).

avatar noxx09 | 

Power Nap... Ce machin que j'ai désactivé aussitôt : tant que l'ordi ne répondra pas tout seul aux messages autant qu'il fasse tout ça quand je l'allume. J'aimerai au contraire qu'Apple remette des composants qui consomment beaucoup, comme des cartes graphique performantes, par exemple. Bon, c'est vrai que je n'ai pas de portable ;-)

avatar Dumber@Redmond | 

@noxx09

Powernap sert aussi à réaliser les sauvegardes Time machine ordinateur en veille... mais les sauvegardes c'est pour les loosers c'est bien connu.

avatar noxx09 | 

L'intérêt de faire une sauvegarde lorsque l'ordi est en veille est très limité : à priori il ne va pas enregistrer grand chose à part à la première tentative. Mais il est vrai que je me sers tellement de mon ordinateur que son temps de fonctionnement suffit à Time machine. En outre pour les portables, la plupart des personnes ont besoin de brancher un disque supplémentaire pour Time machine (et Apple ne propose plus de périphérique pour simplifier les sauvegardes via le réseau) et donc l'ordi doit être allumé.
Ce n'est pas un truc nul, c'est juste une fonctionnalité que je trouve très secondaire par rapport à mes usages... Et ici c'est un site d'usagers.

avatar armandgz123 | 

Quand c'est de l'usb, c'est changer d'un coup alors que quand c'est l'architecture, là on y va pas part pas...
J'aurais préféré l'inverse mais bon

avatar alfatech | 

@armandgz123

"Quand c'est de l'usb, c'est changer d'un coup alors que quand c'est l'architecture, là on y va pas part pas...
J'aurais préféré l'inverse mais bon"

si l'archi serait 100% arm tu n'aurais pas grand chose qui tournerait et t'aurais l'air malin avec ton ordi qui ne servirait à rien.

avatar CorbeilleNews | 

@alfatech :
Les "si" n'aiment pas les "rait"

avatar CorbeilleNews | 

@alfatech :

avatar ijimax | 

@alfatech

Ah ? On en apprend tous les jours.

avatar Almux | 

Il n'est, ici, justement PAS question d'une archi 100% ARM... C'est l'aspect hybride qui ferait toute la différence.
À "l'époque", il y avait les cartes Rocket. J'en avais une dans mon IIfx 33mhz et me permettait de travailler simultanément sur deux systèmes différents depuis la même boîte à chaussure! J'imagine qu'un Mac hybride pourrait être bien efficace.

avatar pocketalex | 

@alfatech a parfaitement raison

remplacer les CPU Intel n'est absolument pas envisageable en l'état

Le meilleur CPU de chez ARM ne rivalise pas avec les i5 et core-M des Mac les moins puissants, faudra m'expliquer ce que vous voulez mettre dans les Macbook Air et les Macbook 12" haut de gamme (i7 et m5/m7), et je parle même pas des Macbook Pro, des iMac et du Mac Pro ou le petit vélo aura du mal à concurrencer les V8

ARM aujourd'hui c'est parfait pour le téléphone ou la tablette pour consulter son word et matter sa série TV. Mais pour lancer des VM avec Windows 10, pour travailler sur des compo post-prod en Full Hd ou 4K, pour de la création visuelle avancée avec Photoshop, etc, c'est pas encore ça

Je rappelle que les anciens switch d'architecture chez Apple se sont réalisées sans trop de douleur car les nouvelles archi étaient nettement plus performantes, ce qui permettait d'avoir une phase d'émulation qui tenait à peu près la route le temps que les applis soient re-compilées. Je vois pas un switch sur ARM alors que la nouvelle archi est moins puissante (si ce n'est totalement à la rue face aux Xeon et aux i7)

A un moment faut être réaliste

avatar Raikstorm | 

Ce sont deux architecture totalement different avec chacune son avantage et son inconvénient mais les processeurs ARM et les processeurs Intel doivent être compare a jeux égales c'est a dire avec le même TDP... et d'un point de vue performance/consommation les processeur ARM dépassent de loin les processeurs intel

avatar pocketalex | 

@Raikstorm

J'ai jamais dis le contraire, ni dénigré les CPU ARM

Je te demande juste quel est le CPU ARM au catalogue qui prendra le relai des i7 6700K des iMacs et des Xeon 12c des Mac Pro

Juste répondre à ça :)

avatar Raikstorm | 

Mais actuellement aucun processeur ARM n'a été développé pour cette usage... les cibles sont les tablettes et smartphone, tout ce qui a besoin d'une faible consommation et déjà la la puissance brute atteint des sommet avec un consommation ridicules vis a vis des processeurs x86 a consommation et TDP égale

Le tout est d'attendre un processeur ARM destiné a prendre le relias des i7 6700K ou d'un xeon 12 coeurs

avatar Raikstorm | 

passer a du 100% ARM est impossible pour apple... a part leurs logiciel propriétaire qui serait migrer, aucun autre logiciel ne tournerait sur mac... et sa plomberait le mac
A moins qu'il font comme microsoft qui lui développe un émulateur x86 pour architecture ARM pour relancer les tablette et pc ARM... mais la question est quelle puissance cet émulateur demandera...
Microsoft garantie une fluidité parfaite sur le dernier proc de Qualcomm mais sa reste a voir en pratique

avatar pocketalex | 

@Raikstorm : il suffit, pour Apple comme pour les autres éditeurs de logiciels (Adobe, Microsoft, etc) de recompiler les softs (avec surement des adaptations) et ça roule

Pour rappel, Apple a déjà vécu 2 changement de plateforme dans son histoire (68xxx -> RISC puis RISC -> x86)

A chaque fois, les éditeurs ont recompilés leurs Apps, et il y avait une phase d'émulation pour assurer une transition douce.

C'est tout à fait possible, le souci ne vient pas de l'impossibilité de lancer les logiciels, le souci vient de la puissance actuelle des ARM.

Je suis pas expert, donc je n'affirme rien, mais au vu des bench actuels, les A10 sont à peu près au niveau des i5/m5, mais les i5/m5 c'est l'entrée de gamme, et si on monte en gamme, la puissance (et le TDP) sont à d'autres niveaux, et je connais pas de CPU ARM qui tienne la route face aux x86 de bureau.

peut-être d'ici quelques années

avatar Raikstorm | 

Actuellement aucun processeur ARM ne tient tête a un meilleur de games x86...
Mais comme le x86 atteint ses limites en termes de performances le tout et de laisser le temps au constructeur d'étudier l'ARM (ou une autre architecture) pour pouvoir prendre le relais sur les x86 et peut-être même les surpassés

avatar aspartame | 

arm on macbook 12 ... pleaaaaaaase

avatar pocketalex | 

@aspartame : quel intérêt ???

avatar r e m y | 

@aspartame

Pour avoir le plaisir de payer pour les mises à jour nécessaires de toutes ses applications et devoir trouver des applications remplaçant celles dont les développeurs ne voudront pas s'embêter à les réécrire pour processeur ARM?
Ah oui, ca fait rêver! :-(
Heureusement qu'Apple ne semble pas se diriger vers cette voie.

avatar reborn | 

Tient le mac devait pas être abandonné ? ?

avatar Malouin | 

Tu n'as lu que des rumeurs ! Nous connaissons Apple et sa culture du secret. Les rumeurs ne sont là que pour alimenter les forums de discussions !

avatar rolmeyer (non vérifié) | 

@reborn

Non le Mac ne devait pas être abandonné c'est Apple qui en donnait tous les signes. Quand on fait un truc collé et soudé c'est à eux de faire les upgrades et de mettre les composants récents. Or cela n'a pas été fait. Faire un nouveau file system c'est beaucoup beaucoup de travail alors quand le verrait sur Mac OS alors je croirais en l'avenir lointain de la plateforme. Pour l'instant c'est sur iOS leur vache à lait. C'est une rumeur d'un bête coprocesseur sur un Mac qui va me donner confiance dans cette plateforme.

avatar reborn | 

@rolmeyer

Patience APFS est en beta sur sierra. C'est un os "ouvert" avec plus de variables a prendre en compte. Ils n'ont pas le droit à l'erreur

avatar Malouin | 

... Voilà un travail en profondeur et pas une innovation du Marketing ! Et tout le monde râle ? Non mais vraiment...

avatar House M.D. | 

@Malouin

C'est ce qui m'amuse (ou m'attriste?) de plus en plus avec la communauté Mac, cet Apple bashing, quoi que fasse cette société.

avatar oomu | 

ce n'est pas nouveau.

Vous n'étiez pas là lors du lancement du powerpc ?
Lors de Os x 10.0 ?
Lors de l'ipod ?

mais enfin ?!

avatar House M.D. | 

@oomu

Lors du PowerPC, j'étais encore un peu jeune, étant de 84. Lors du passage à OS X, j'étais un peu trop pauvre et m'étais rabattu sur un vieux PowerBook 1400cs, et lors du passage à l'iPod, même topo, je n'ai pris que le 3e génération.

Ceci dit, ça ne m'a pas empêché du coup de connaître presque toute l'histoire d'Apple, en passant du PowerBook Duo 230 au départ et en collectionnant les machines diverses et variées. Mais les polémiques de l'époque, j'étais bien loin d'avoir la comme seule préoccupation de regarder ce type de bataille.

Pages

CONNEXION UTILISATEUR