GPU et autonomie : les avancées de Skylake

Stéphane Moussie |

Lors du keynote d'ouverture de l'Intel Developper Forum, il a été question de tout (« sensification » des ordinateurs, internet des objets, stockage), sauf de Skylake. Heureusement, les sessions qui ont suivi la conférence ont permis d'en savoir plus sur cette nouvelle génération de processeurs qui a récemment fait ses débuts.

Cliquer pour agrandir

Ars Technica a consacré plusieurs articles fouillés sur les nouveautés de Skylake. L'un d'entre eux est consacré au GPU, un composant aujourd'hui essentiel puisqu'on lui confie de plus en plus de tâches — Apple l'a illustré récemment en portant l'API graphique Metal sur Mac et en s'en servant comme d'un moyen pour accélérer l'ensemble du sytème.

Intel a amélioré la modularité des GPU des puces Skylake. Schématiquement, si vous utilisez uniquement la partie du GPU dédiée à l'encodage/décodage matériel, le reste sera mis en veille afin de préserver l'autonomie.

L'unslice (la partie fixe qui gère la géométrie et d'autres fonctions fixes) peut aussi être cadencé indépendamment des slices (les parties qui contiennent les unités de calculs) afin d'optimiser la consommation et les performances en fonction de la tâche exécutée.

Skylake introduit par ailleurs une nouvelle configuration de GPU au nom de code « GT4 ». Il existait déjà le GT2 (Intel HD 5600) qui contient 24 unités d'exécution (EU), le GT3 avec 48 EU et le GT3e (Iris Pro) avec 48 EU et un module d'eDRAM. Le nouveau GT4 dispose, lui, de 72 EU et devient ainsi le nouveau GPU le plus puissant. Intel n'a pas annoncé de version « e » avec module d'eDRAM, mais ce n'est pas à exclure pour plus tard.

Est-ce que les prochains MacBook Pro 15" seront équipés d'un GPU GT4(e) ? Compte tenu de leur positionnement et de l'absence de GPU dédié sur le modèle de base, ce serait logique et souhaitable, mais Intel n'a toujours pas dévoilé quels seront les couples CPU + GPU — en dehors des deux premiers processeurs de bureau lancés, évidemment.

Cliquer pour agrandir

Qui dit nouvelle génération, dit généralement nouveaux protocoles pris en charge, et c'est le cas avec Skylake. Rappelons que les GPU Broadwell supportent la 4K à 60 Hz via le DisplayPort 1.2 et la 4K à 24 Hz via le HDMI 1.4, entre autres.

Les GPU Skylake peuvent gérer en plus la 4K à 60 Hz via le HDMI 2.0, mais à condition d'utiliser un adaptateur DisplayPort vers HDMI 2.0. Sur les machines qui sont équipées du contrôleur qui va bien, la norme HDMI 2.0 intégrée au Thunderbolt 3 est également supportée.

L'accélération matérielle, qui décharge le CPU de la tâche et améliore les performances, fonctionne plus largement. Les GPU Skylake peuvent encoder et décoder matériellement le H.265/HEVC 8-bit, et encoder matériellement les formats JPEG et MJPEG. Ars Technica précise que le décodage du H.265/HEVC est pris en charge par l'unslice, ce qui signifie que lire une vidéo dans cette norme va mettre à contribution seulement une partie du GPU, et ainsi ne pas grever l'autonomie.

Du côté des API, Skylake supporte DirectX 12, OpenGL 4.4 et OpenCL 2.0. Les prochaines versions d'OpenCL et OpenGL, ainsi que Vulkan, pourront être prises en charge à l'avenir.

Des perfectionnements ont été apportés à la gestion de la mémoire. Les nouveaux GPU peuvent notamment compresser les données avant de les envoyer à la RAM, permettant ainsi de laisser plus de bande passante pour le reste. Les joueurs seront sinon contents d'apprendre qu'Intel a amélioré les performances de l'antialiasing multisample (MSAA) et ajouté une option 16x. Encore faut-il que le GPU fasse tourner convenablement le jeu avec les réglages de base pour pouvoir prétendre activer cet antialiasing.

Cliquer pour agrandir

Dans un autre article, Ars Technica explique comment Intel procède pour améliorer l'autonomie avec les processeurs Skylake.

La fonction la plus importante est Speed Shift. Elle permet une meilleure répartition des rôles entre le processeur et le système d'exploitation qui gèrent tous deux la consommation. Le processeur peut choisir tout seul et quasi instantanément (1 milliseconde) un des paliers d'utilisation en fonction de l'activité — il va augmenter la fréquence si on commence une tâche ou la baisser si l'ordinateur passe en veille. Avant Skylake, cet ajustement devait être « demandé » au système et prenait environ 30 millisecondes.

Ne reste plus qu'à vérifier si toutes ces optimisations sont visibles à l'usage. Les premiers tests de Skylake étaient mi-figue mi-raisin, mais ils concernaient des processeurs de bureau équipés de GPU GT2. Les puces qui pourraient trouver leur place dans la plupart des Mac n'ont pas encore été annoncées, mais certains modèles ont déjà fuité. Une partie devrait sortir d'ici la fin de l'année.

avatar Mickaël Bazoge | 

Vivement les procs ARM Apple qu'on y comprenne de nouveau quelque chose.

avatar oomu | 

pas réaliste pour l'heure.

-
et sinon, en quoi ça sera plus simple avec ARM ? Les processeurs ARM aussi peuvent être fondu en "bloc" avec une section vidéo provenant d'un autre concepteur ou en interne, ils peuvent aussi avoir un nombre variable de coeurs, d'unités de calculs (dédiées ou non à une tâche) et bien sur ils gèrent un nombre variable d'interfaces selon ce qui est intégré dans la puce.

avatar romainB84 | 

@oomu :
"Pas réaliste pour l heure"

Sur le plan "marche" ou "performance"?
Autant je suis d accord sur le côté "marché" un changement pareil d architecture serait un gros choc surtout pour les pro (mais bon Apple l a déjà fait avec le passage PowerPC/Intel)
Sur le plan puissance, je suis pas d accord, avec une bonne optimisation d osX (ce qui a l air d être la voie suivi avec 10.11) et une meilleure maîtrise matériel/logiciel... Ça me semble pas in-envisageable. Quand on voit la fluidité des couple iPad air2/iOS en comparaison des dernier MacBook/osX... On se dit qu avec une version allégé et optimise d osX, on est plus du tout dans de la science fiction sur 1 an (ou 2) :-)

avatar C1rc3@0rc | 

Des Mac ARM c'est tout a fait realiste depuis quelques mois deja.
L'A8x a des performances en calcul equivalente a un core i5 de 2011/2012 et le GPU est superieur aux bouses d'Intel.
regarde le Macbook: un A8x 4 core donnerait des performances superieures a celles de cette bouse de Core-M
Pareil avec le MacMini actuel en remplacant par un core A8 avec 6 ou 8 core on aurait une machine plus performante et moins gourmande que l'actuel modele d'entree de gamme.
Pour l'iMac 21", il en va de meme

En fait avec l'A8x Apple dispose d'un processeur proche des petits Core i 5. Alors c'est certain si on compare un A8x et un Core i7 a 4Ghz, y a pas photo, mais pour le reste il est tout a fait realiste d'utiliser de l'ARM.

Apres tu peux objecter le souci de compatibilite entre le code x86 et les code ARM, car il est certain qu'il est illusoire d'esperer des bonnes performances en emultation. Mais de ce cote Apple a la solution avec Swift et les API. Du moment qu'une application est programmee avec les API et en Swift, une simple phase de compilation suffit a obtenir un soft natif sur ARM.

Avec les A10 Apple aura des processeurs non seulement énergétiquement plus efficaces que les x86, moins gourmands et moins chers. Et en plus au niveau GPU la solution ARM est bien plus souple et permet de meilleures performance que celles d'Intel.

avatar JoKer | 

Et ça voudra donc dire que tous les gros logiciels (Office, la suite Adobe, les logiciels Avid, etc.) ne fonctionneront sur Mac ARM que des années après leurs sorties (si les éditeurs font réellement l'effort, je vois bien Adobe abandonner).
Je ne suis pas sûr qu'Apple puisse se le permettre.

avatar C1rc3@0rc | 

Heu tu sais qu'Office ca fonctionne sur iOS?
Tu sais combien il y a de soft d'Adobe sur iOS?

iOS c'est 95% de Mac OS, en gros les API de telephonie et la gestion de l'interface tactile différent.
Donc en fait ce qui existe sur iOS existe virtuellement sur Mac OS X sur ARM...

Adobe ne va pas abandonner un marche en croissanca alors qu'il commence a avoir de la concurence...

Apres pour Avid et les logiciels destinés aux station de travail c'est effectivement une vraie question. Il faut etre clair: Apple ne fait pas de station de travail ni de serveur et tout indique que ca ne sera pas le cas dans le futur. Apple va continuer de faire du Mac et des appareil iOS, mais si le Mac Pro beneficie d'une nouvelle generation ce sera certainement la derniere.

Donc si on dispose de soft qui tournent sur des des stations de travail, on a pas de Mac aujourd'hui. Donc faut considerer de passer a Windows ou a un *nix (Linux) sur une station Dell ou HP est avec un bon prestataire pour la maintenance.

avatar fousfous | 

@C1rc3@0rc :
Très bonne explication mais je te contredis sur un point.
Les GPU Intel (enfin surtout les iris) sont très bon, largement plus fiable que les CG nvidia et on une puissance de calcul supérieur au milieu de gamme (les x50m), la différence observée vient de l'utilisation de Cuda, mais si Cuda n'existe pas sur l'app' que tu utilise il n'y aura pas de différence entre un GPU Intel et et une CG nvidia.
Ça ne pose pas de problème du tout de jouer avec mon MBPR 13" qui a une iris 5100 à des jeux sorties après sa commercialisation en médium/high comme wargame red nation par exemple.

avatar C1rc3@0rc | 

En fait a part les accidentes industriels qui ont touché certaines cartes, par exemple les NVidia 8600, les GPU NVidia, comme AMD sont tres fiables.

Lorsque un probleme arrive, la plupart du temps c'est a cause des soudures qui lient le GPU a la carte qui sont trop fines et pas assez resistantes a la montee en temperature. C'est donc a la fois un probleme de soudure (technique de soudure en surface) et de refroidissement de la machine. Masi la le problème vient donc du fabricant de la machine qui n'a pas dimensionne de maniere adequate le refroidissement.

De ce point de vue, les unites graphiques d'Intel ne courent pas ce risque. Intel definit un TDP(puissance du refroidissement nécessaire) pour le processeur entier.
Donc le fabricant de PC doit prévoir un système de refroidissement large. Et ce TDP est une valeur maximale qui additionne les productions calorifiques: celles des core, celles des unités graphiques et celles des autres composants. Il en résulte que si un truc va souffrir en premier dans un processeur, c'est d'abord les core, qui sont les plus sensibles et les plus producteurs de chaleur. Et un core ca grille avant d'avoir atteint la température dangereuse pour la soudure...

Ensuite il faut bien considerer les unites graphiques d'Intel comme bas de gamme. Or la consequence c'est que depuis 2008, seules les GPU haut de gammes sont rentables pour Nvidia et AMD. Donc ils ne font que tres peu evoluer leurs GPU bas de gamme, alors qu'Intel depense des sommes folles pour faire evoluer ses UG... consequence un HD4000(2012) est au niveau d'un 8600(2007). Une iris 5100(2014) c'est a peu pres au niveau d'une Geforce 520M V2 (2011)...

Ceci etant, il faut choisir entre la puissance CPU et la puissance graphique avec Intel, le TDP etant commun lorsque l'unite graphique tourne a fond, les core eux sont mis au repos, sinon ca frise...

avatar Ducletho | 

@C1rc3@0rc :
Merci c'est très instructif !

avatar JoKer | 

Si on prend un logiciel comme Premiere Pro (même en version 2015) il utilise les API QuickTime pour une grande partie de la gestion vidéo (pas d'AV Foundation) et des pans entier du logiciel sont encore en Carbon.
Alors oui, Premiere est certainement le pire, mais les autres ne sont pas si loin.

Et tu penses qu'Adobe va réellement remettre en chantier tout son développement parce qu'Apple a décidé de changer d'architecture ?
Actuellement les clients Adobe sont plus captifs du logiciel que du système d'exploitation et avec l'abonnement CC, il suffit de deux cliques pour passer de Mac OS à Windows.
Si Apple passe sur ARM, il y a de grandes chances qu'Adobe demande à ses clients de passer sur PC/Windows.

Et la situation sera pareil pour Avid (ProTools) et pour beaucoup d'autres logiciels.

Sauf si Apple donne de vrais arguments à ces éditeurs pour un changement vers les processeurs ARM (et pas la "faible" consommation parce que ça n'intéresse que peu ces gens là).

Par contre c'est vrai, peu de soucis à ce faire pour les logiciels du Mac App Store.

Mais es-ce que le Mac peut survivre dans cette situation ?

avatar C1rc3@0rc | 

Tu le decris tres bien, Adobe a des softs, parmi les pires, qui n'ont jamais ete vraiment mis a jours depuis la transition PowePC/Intel (2006 quand meme) mais plutot bricolés a la Flash...

Tu le dis aussi les clients Adobe sont captifs.
Oui ils le sont ou enfin ils l'etaient.
Parce que les softs qui s'attaquent aux productions d'Adobe se multiplient donnant des vraies alternatives a des gammes entières de clients qui en ont marres de se faire tondre et de devoir gerer des interfaces compliquées et archaïques.
Seuls ceux qui ont besoins des fonctions les plus pointues des softs d'Adobe sont encore sans vraies alternatives, mais ca risque de changer (notamment apres des annees d'absence on voit Canvas (http://www.canvasx.com/en/canvas-for-mac) revenir sur Mac - un avant gout avec http://www.canvasx.com/en/products/canvas-draw, alors que la cible c'est le pro sur station PC..)

Comme je l'ai deja dis les clients des stations de travail sont deja passés aux stations Windows ou Linux. Si Adobe estime que la plateforme Mac, malgre sa croissance, est toujours pas intéressante pour certains de ses softs, alors ces softs agoniseront comme Flash et les derniers a ne pas avoir compris pourront migrer sur stations HP ou Dell.

Pour le reste, le chantier est deja bien avancé. D'ailleurs avec les nouvelles restrictions securitaires de 10.11 les sales petites manies d'Adobe font que beaucoup de ses softs qui tournaient encore sous 10.10 seront incompatibles, donc meme pas la peine d'attendre les MacARM pour voir ce que va decider Adobe!

Si ca tourne sur 10.11, y a de tres grandes chances que ca tourne sur MacARM...

Et finalement pour repondre a ta question:Mais es-ce que le Mac peut survivre dans cette situation ?
Oui, il ne s'est jamais autant vendu de Mac et ca accélère.

Et aux final, la dernière chose a considérer, c'est la croissance de la puissance. Aujourd'hui une station de travail ca tourne sur Xeon (ou POWER 8), mais les x86 stagnent...

avatar JoKer | 

Ce que tu décris donc pour le futur des Mac c'est des iPad Pro en à peine plus évolué (ports USB et HDMI) avec ou sans écran tactile.

Ça n'est franchement pas réjouissant.

En musique, en graphisme ou en vidéo beaucoup de gens utilisent encore des Mac.
Il est plus que probable que si Apple fait fuir ces clients, ils en perdent bien plus.

Et si Apple ne fait officiellement plus de station de travail, que va-t-il advenir des logiciels comme Logic, Final Cut Pro ou Motion ?
Ils seront abandonné ?
Es-ce un bon message pour donner envie d'investir dans un Mac ?

avatar fousfous | 

@MickaëlBazoge :
Ah je suis pas le seul à souhaiter leur arriver?

Normalement ça devrait arriver l'année prochaine avec le doux nom de A10 (ou AX peut-être même).
A titre personnelle je pense qu'il serait bien d'attendre une année de plus mais bon...
Et pour ceux qui veulent utiliser Windows il y aura évidement un convertisseur ARM vers x86.

avatar Pommeduverger | 

@fousfous :

Ça sera beaucoup beaucoup moins performant …

avatar fousfous | 

@Pommeduverger :
Alors la tu as complètement faux, largement même.
Compare les performances brutes des processeurs ARM Apple face aux processeurs Intel, il est pas compliqué de les dépasser.

avatar C1rc3@0rc | 

Ben en fait la supériorité et le dépassement des x86 par les ARM est mathematique.

Si on prend la courbe d’évolution de la puissance des ARM on voit que les performances évoluent selon un facteur situé entre 1.2 et 3.8 tout les 12 mois.
De sont cote Intel voit une évolution des performances située entre -0.05 et 0.3 tout les 18 a 22 mois.
Sans oublier que la puissance par watt est supérieure et en augmentation sur ARM alors qu'elle stagne chez Intel (les x86 consomment moins parce qu'Intel ameliore la gestion electrique et met de plus en plus de composant en veille, ou en baisse la frequence dynamiquement)

Il faut aussi rajouter que l'architecture x86 est de pus en plus compliquée et cela pese sur les performances et la consommation.

Sur un x86 l'execution d'une instruction passe par 4 etages (x86 -> transcription en RISC -> ordonanceur -> execution -> transcription en x86) alors que sur un ARM c'est 2 etages (RISC -> ordonnanceur -> exécution -> RISC). Cela est tres schematique (il faut aussi prendre en compte la longueur et la complexite du pipeline, les caches, les registres internes et externes, l'utilisation des unites specialisees,...) mais d'un simple point de vue physique la complication des x86 consomme plus d'energie et implique plus de latence qu'un ARM. D'ailleur ce qui sauve le x86 c'est le fait de disposer d'un moteur RISC.

Comme tu dis, techniquement il est simple de depasser les x86: il suffit d'augmenter la puissance electrique dans les ARM!
Mais voila tous les ARM sont conçus pour consommer le moins possible et comme la consommation est le facteur déterminant du marché, ben ils ne peuvent progresser en puissance que plus lentement.

L'architecture ARM est aussi bien plus souple et ouverte que celle des x86. Ca veut dire qu'un processeur ARM peut etre adapté par un fabricant pour des choses très différentes et collaborer très efficacement avec des coproceseurs et des composants externes (GPU/DSP/..)

avatar San_Pellegrino | 

@MickaëlBazoge :
Ça ne devrait pas arriver tout de suite. Mon frère qui travaille pour une société de BTP qui a été choisie pour remplacer les carreaux brisés des sanitaires de l'Apple Campus, m'a dit avoir vu une grande poubelle avec des trucs électroniques avec marqué ARM dessus. D'après la description précise qu'il m'en a faite (c'est un manuel) il s'agit sans aucun doute de processeurs.

avatar Mickaël Bazoge | 
Inattaquable ! Encore mieux que les croquis d'iPhone griffonnés à un coin du table du restau chinois d'en face.
avatar vandykmarsu | 

Vivement le retour des processeurs Risk PowerPc pour que le Mac redevienne ce qu'il était jadis xD

avatar Un Type Vrai | 

Cette fois, Windows tournera aussi sur ARM. Microsoft n'est pas fou.

avatar Le docteur | 

Quest-ce au juste qu'une amélioration matérielle ?

avatar oomu | 

une amélioration permettant d'en faire plus avec un ordinateur.
par exemple:
un processeur plus performant à alimentation équivalente
une mémoire plus rapide
une mémoire plus dense et moins chère permettant d'augmenter sa capacité
etc.

avatar Le docteur | 

Sinon oui pour les ARM, même si on va être bon pour tout racheter. On n'aurait jamais dû en sortir, en fait.

avatar oomu | 

En sortir ? vous pensez au Newton ?

avatar SteamEdge | 

Les Macs étaient sur architecture PowerPC avant. Il y a des similitude les deux architectures, mais elles sont loin d'être identique.
Techniquement il est probablement plus facile de faire un portage d'une application x86 (Intel) vers ARM que x86 vers PowerPC.
Car comme les processeurs Intel, les processeur ARM sont des processeurs Little Endian, là où les PowerPC sont Big Endian.

Pages

CONNEXION UTILISATEUR