L'efficacité énergétique des nouveaux MacBook Pro est « impressionnante »

Anthony Nelzin-Santos |

« L’efficacité énergétique des nouveaux MacBook Pro est impressionnante » dit Benedict Slaney. Il est plutôt bien placé pour le savoir : il développe Battery Guru, ce menulet qui permet de garder un œil sur l’état de la batterie des Mac portables, depuis bien longtemps. « Je ne sais pas exactement ce qu’Apple ou Intel ont fait et bien fait », ajoute-t-il, « mais dans des conditions d’usage réduit, la consommation a été divisée par deux par rapport à la précédente génération. »

Comment expliquer, dès lors, les fortes variations du témoin d’estimation de l’autonomie qui ont motivé les correctifs apportés par macOS 10.12.4 ? Après avoir étudié le code de macOS relatif à cet affichage, librement disponible, Slaney aurait tendance à confirmer que son fonctionnement était sans doute trop simple pour juger correctement les subtilités des processeurs récents.

« Puisqu’il se base uniquement sur une moyenne de la déplétion de la capacité de la batterie », explique-t-il, et que « le processeur passe parfois dans un état où il consomme plus pendant une minute ou deux », l’estimation peut être faussée. Apple aurait sans doute pu corriger son mécanisme d’estimation plutôt que de le retirer, d’autant qu’il semble capable d’intégrer la capacité d’une batterie externe, une fonction d’autant plus intéressante maintenant que les Mac portables possèdent des prises USB-C.

Mais cela aurait peut-être demandé plus de temps que l’ingénierie n’est prête à accorder à une fonction qui n’est sans doute pas jugée prioritaire. Certains de ses aspects tiennent en effet du bricolage hâtif plus que de la fonction raffinée, comme ces quelques lignes qui limitent l’estimation à 10 heures, « parce que nous ne distribuons pas encore de batteries tenant 44 heures ». Et ces 10 heures représentent le « chiffre magique » en fonction duquel les batteries des Mac portables (et des iPad) sont conçues.

Après quelques mesures, Slaney confirme en tout cas que les nouveaux MacBook Pro consomment beaucoup moins que les anciens lors d’un usage modéré, en partie grâce aux progrès réalisés par les processeurs d’Intel, mais surtout grâce aux énormes avancées réalisées par les écrans. Mais puisqu’ils possèdent une plus petite batterie, ils se déchargent plus rapidement lors d’un usage plus vigoureux. L’un et l’autre procèdent de la même logique, et expliquent les fortes différences de ressenti d’un utilisateur à un autre.

avatar jmtweb | 

C1...….Bien argumenté.

avatar fte | 

@jmtweb

Sauf que l'argumentation est du pur bullshit constellé d'erreurs et d'incompréhensions, couvrant une détestation d'Intel. Enfin, tu votes pour qui tu veux hein.

avatar C1rc3@0rc | 

@ jmtweb
Merci.

avatar Trillot | 

@C1rc3@0rc:

C'est bien du C1rc3@0rc!

Si ça marche, ça marche, le reste on s'en fout!

avatar Stardustxxx | 

@C1rc3@0rc
"Ceci dit il est indeniable que le travail d'Apple et d'Intel pour reduire la consommation releve du genie, mais parler d'efficacité energetique est faux!"

Ce qui est faux ce sont tes pavés qui racontent n'importe quoi. SI tu diminue la consommation de ton device c'est que tu as améliorer son efficacité énergétique.

Mais comme tu devrais accepter que les processeurs Intel font des progrès niveau énergétique, et
que cela va a l'encontre de ton discours de haine contre Intel, et bien non on a le droit a un de tes fameux pavé qui raconte n'importe quoi.

avatar sachouba | 

@Stardustxxx :
Le message de C1rc3@0rc était plutôt bien argumenté.
Si à puissance de calcul égale, on ne diminue pas la consommation, alors on n'augmente pas l'efficacité énergétique.

Diminuer la consommation et augmenter l'efficacité énergétique sont deux choses différentes.

avatar fte | 

@sachouba

A puissance égale les Kaby Lake sont pour la majorité des usages plus économes que disons Haswell.

Par majorité des usages, j'entends que le processeur ne tourne pas à pleine charge tous cœurs overclockés, cas de figure excessivement minoritaire y compris chez les créateurs de contenus.

Le stepping fréquence est très amélioré avec des changements d'états bien plus rapides. Donc l'efficacité est d'autant améliorée que la charge est variable et globalement faible. Un processeur désigné pour être plus efficace à gérer le scénario d'usages majoritaire, tu appelles ça comment ?

ARM utilise aussi cette technique, ainsi qu'une autre astuce, des cœurs de puissance soutenue beaucoup plus réduite pour limiter la consommation crête parce que le stepping sur ARM est beaucoup moins fin et avancé que chez Intel. Apparemment AMD a lui aussi beaucoup travaillé sur cette technique pour Ryzen.

ARM ne cherche pas à créer des processeurs à la puissance crête importante. Intel et AMD, si.

Après ce serait intéressant de comparer l'efficacité énergétique de crête des ARM et des x86 Intel et AMD, malheureusement pour le moment il n'y a rien qui atteigne le niveau de puissance des i7 ou Xeon d'Intel. Pas de comparaison possible à puissance crête donc. On va pouvoir bientôt comparer des i7 voire des i7 X99 aux Ryzen, avec, beaucoup de monde l'espère vivement, des niveaux de performance comparables. ARM n'y est pas encore, loin de là. Je doutes qu'ARM le soit jamais.

Le reste du discours n'est qu'enfumage. En particulier lorsqu'on sort que Intel triche et utilise des méthodes sournoises alors qu'ARM rulezzz (bien qu'utilisant les mêmes méthodes mais moins bien et d'autres). Bullshit.

avatar Bigdidou | 

@fte
"Le reste du discours n'est qu'enfumage"

Voilà.

avatar C1rc3@0rc | 

@fte

«ARM ne cherche pas à créer des processeurs à la puissance crête importante. Intel et AMD, si.»

Ben c'est totalement faux et doublement puisque tu generalises pour des domaines tres differents.

Le x86 est conçu sur le principe de la conjecture de Moore. Sa puissance depend du nombre de transistors et l'efficacite energetique est resultante de la finesse de gravure.
L'equation pour Intel etait simple, puisque en theorie a chaque paliers de gravure l’efficacité énergétique devait doubler...
Et l'environnement energetique de fond est le PC, avec une puissance fournie par une alimentation généralement située entre 650 et 1200 watts. Quand au TDP c'est entre 50 et 250 watts en moyenne, avec la prise en compte de système de refroidissement de plus en plus performants.

Cette equation s'est pris le mur avec le Pentium 3 et 4, et Intel a du commencer a vraiment prendre en compte l'efficacité de consommation avec l'architecture Core, pour laquelle les techniques de gestion d'alimentation ont commencé a devenir de plus en plus complexes: cadence dynamique, mise en veille d'unité, groupement d'unités de traitement, generalisation des coprocesseurs integrés,...

ARM a l'inverse a du prendre en compte des le tout depart des environnements embarqués et serveurs avec des contraintes energetiques qui demandaient une grande efficacité energetique.
En embarqué on ne peut pas attendre que l'efficacité energetique (puissance de calcul, degagement thermique) vienne de la finesse de gravure, d'autant que le processeur est sollicité en permanence, a l'inverse d'un PC ou les temps d'usage peuvent etre tres espacés.
Pareil pour le serveur en telecom, sa montée en charge est rapide et elle doit tenir jusqu’à des 24/24 sur des mois...

De fait un processeur ARM doit etre optimisé pour fonctionner a une puissance nominale qui est constante, et cela tout le temps de fonctionnement du materiel, ce qui peut vouloir dire du 24/24 ininterrompu. On peut donc pas compter sur des periode d'idle longue et de crete courte: on est toujours proche de 100%...

D'ailleurs Intel a du aussi prendre en compte ce type de fonctionnement avec le serveur. Et la y a pas de miracle, le x86 serveur a des TDP importants, donc un refroidissement puissant, une alimentation puissante et une cadence faible, mais ce qui le sauve c'est le multicore.

Avec l’avènement du mobile ARM a du adapter son architecture a un usage discret, ou de courtes periodes de fortes "charges" succédaient a des periodes d'idle longues, mais ou les contraintes energetiques sont encore plus fortes qu'en embarqué classique.
Un smartphone a une petite batterie qui doit alimenter un ecran energivore et la dissipation thermique est tres limitée sachant qu'en plus l'ecran et les reseaux en sont de gros producteurs.
Donc ARM a amelioré encore l'efficacité energetique tout en ameliorant la gestion d'alimentation.

Donc ARM est passé d'un modele de fonctionnement a 100% ininterrompu a un modele 0/100% plus proche du PC. Avec un énorme sucés, vu que l'efficacité energetique est fondamentalement au cœur de l'architecture ARM.

Intel de son coté a essayé d’améliorer l'efficacité énergétique: c'est l’échec de l'Atom et du Quark. Par contre la tres grande reussite d'Intel c'est l'exploitation de la latence et la mise en cache avec des scenario prédictifs extrêmement fins qui donne une illusion de fonctionnement basée sur une réactivité étonnante.

avatar Stardustxxx | 

@C1rc3@0rc
"Le x86 est conçu sur le principe de la conjecture de Moore. Sa puissance depend du nombre de transistors et l'efficacite energetique est resultante de la finesse de gravure.
L'equation pour Intel etait simple, puisque en theorie a chaque paliers de gravure l’efficacité énergétique devait doubler..."

Faux.
La loi de Moore dit une seule chose : doublement du nombre de transistor tous les 18 mois.
Ca ne parle pas d'autre chose.

avatar C1rc3@0rc | 

Deja commence par lire et essayer de comprendre ce que tu cites

Ensuite ce que tu dis de la conjecture de Moore est faux:
1er version: doublement de composants tous les 2 ans a cout egal.
2eme version: doublement des transistors tous les 18 mois a cout egal.
Et en plus c'est pas une loi, mais une conjecture.

Tu comprends ce que ça implique?

Et je le repete, le x86 est conçue selon le principe que la puissance depend du nombres de transistors et l'efficacité energetique repose sur la finesse de gravure. Pour composer avec le mur des 4Ghz et continuer a garder ce principe on est passé au multicore, qui lui a tapé le mur de la complexité d'une architecture fondementalement lineaire au-dela de 8 core.

Et la constance de la conjecture de Moore revisee tient au fait que l'industrie a pris la conjecture de Moore comme base de planning. en gros si Moore avait parlé de 4 ans au lieu de 18 mois, Intel aurait suivi un cycle de 4 ans... inversion de cause et d'effet.

avatar Stardustxxx | 

@C1rc3@0rc
""Deja commence par lire et essayer de comprendre ce que tu cites
C'est l"hopital qui se fout de la charité.

"Ensuite ce que tu dis de la conjecture de Moore est faux"
C'est toi qui a faux, regarde les 2 définitions :
"La loi de Moore a été exprimée en 1965 dans le magazine Electronics (en) par Gordon E. Moore, ingénieur de Fairchild Semiconductor, un des trois fondateurs d'Intel. Constatant que la « complexité des semi-conducteurs proposés en entrée de gamme » doublait tous les ans à coût constant depuis 1959, date de leur invention, il postulait la poursuite de cette croissance (en 1965, le circuit le plus performant comportait 64 transistors). Cette augmentation exponentielle fut rapidement nommée « loi de Moore » ou, compte tenu de l'ajustement ultérieur, « première loi de Moore »
En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des microprocesseurs (et non plus de simples circuits intégrés moins complexes car formés de composants indépendants) sur une puce de silicium double tous les deux ans2. Bien qu'il ne s'agisse pas d'une loi physique mais seulement d'une extrapolation empirique, cette prédiction s'est révélée étonnamment exacte. Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes.."

La loi empirique de Moore ne parle que du nombre de composants, ca ne parle pas d'efficacité énergétique comme tu l'affirmes.

"Et en plus c'est pas une loi, mais une conjecture."
C'est une loi empirique, certain parle de conjecture, certain de loi.
Il y a juste toi l'ayatolah pour aller argumenter sur ce point, ca prouve que tu n'as pas d'autre arguments d'ailleurs.

avatar C1rc3@0rc | 

Ben tout ça pour illustrer que tu ne comprend pas ce que tu lis, cites et meme ce que tu ecris.

1er point: une "loi empirique" c'est une constatation abusive.
Sinon c'est une observation, si c'est théorisé c'est une hypothèse et posé en principe c'est une conjecture.
Hormis «loi», ces termes désignent tous la nature "probabilistique" et incomplète. L'absence de preuve suffirait, mais le fait que Moore ait repris sa conjecture démontre qu'il s'agit bien d'une conjecture et pas une constatation et encore moins d'une loi.


«Constatant que la « complexité des semi-conducteurs proposés en entrée de gamme » doublait tous les ans à coût constant »

Si on parle de coût, on parle d’économie => la conjecture de Moore est, comme je l'ai décris un principe économique, qu'Intel a appliqué a la lettre: caler l’évolution du x86 sur une periode de 2 ans pour augmenter sa puissance en gardant le coût de production constant...
Ok pour le coup Moore avait omis un détail: le coût des lignes de production lui est devenu exponentiel, ce qui a posé sérieusement probleme a 22nm, et qui est devenu un cauchemar pour Intel a 14nm.

Donc la conjecture de Moore décrit d'abord un facteur de rentabilité et une stratégie commerciale.

Mais il y a aussi dans cette définition le principe de la puissance, de la consommation et aussi, mais la il faut avoir fait un peu de physique, celui de la production thermique, et donc de la perte de puissance et par conséquent de l'efficacité énergétique!

«Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes.."»

Magie, magie, hein!

> doublement de la densité
=> sur la meme surface on met 2 x plus de transistors.
=> les transistors sont 2 x plus petits
> les machines sont de plus en plus puissantes
=> plus de transistors = plus de puissance !
> pourquoi les transistors sont plus petits ? Parce qu'on les miniaturise
=> la gravure est plus fine!

La y a une notion de physique qui visiblement t’échappe,
> plus l’électricité doit traverser de matière qui lui oppose une résistance, plus il y a de production thermique. Ca a rapport avec une loi (demontrée donc) de la thermodynamique et un Anglais dans les annees 1800. Je fais simple, en réalité c'est plus complexe, mais le but c'est que tu suives.

La vocation du transistor n'est pas de servir de chauffage mais d'unité de calcul (en l’occurrence un truc en math pondu par un anglais vers 1800), la chaleur produite par watt consommé c'est de la puissance perdue! Plus le processeur chauffe, moins il est efficace énergétiquement.

=> moins de production thermique = moins de perte d’énergie sous forme de chaleur.
=> efficacité énergétique !
Enfin quand on parle de fonctionnement, parce qu’éteint évidement, c'est pas d'efficacité énergétique dont il est question...

Ok, les effets quantiques et autres joyeusetés prévues par la physiques finissent par pourrir les avantages «mécaniques» de la finesse de gravure, mais ça c'est grosso modo sous les 32nm, et ça on le sait expérimentalement au moins depuis 1999

Donc, pour Intel ( et son x86) et par la grâce de a la conjecture de Moore:
> gravure plus fine
> plus de transistors sur la meme surface
=> plus de puissance
=> coût constant
=> meilleure efficacité énergétique

En réduisant la finesse de gravure selon la période donnée par la conjecture de Moore, le X86 consommait autant pour une puissance qui augmentait mécaniquement. Et Intel s'en mettait plein les poches puisque le coût, définit pas la conjecture de Moore, était constant. Intel n'avait qu'a maintenir une bonne position dans la course a la finesse de gravure et le mécanisme du monopole Wintel faisait le reste. Merci Moore.

La ou ça bug, c'est quand le processeur bute sur le mur des 4Ghz, puis sur celui de l'exploitation logicielle du multicore (8 Core), puis sur les effets quantiques et autres joyeusetés qui accompagnent la finesse de gravure trop fine pour le silicium et finalement sur la consommation du core qui ne peut être réduite sans affecter la puissance de calcul.

Bref comme je l'ai ecris, l'efficacité energetique du x86 depend de la finesse de gravure. C'est mecanique. Et c'est l'impasse depuis que la finesse a passé les 32nm.

A coté de ça, il y a les architectures RISC, dont ARM.
Et on voit que si les ARM augmentent leur puissance tout en augmentant leur efficacité energetique, c'est independant de la finesse.
Pire encore, Nvidia a doublé l'efficacité énergétique de ses GPU Maxwell sans changer de gravure.

Donc clairement il y a une amélioration de l'efficacité énergétique qui utilise d'autres processus que la finesse de gravure: le travail sur l'architecture.
Sauf que pour l'architecture compliquée du X86 ça fonctionne pas et ce malgré tous les efforts d'Intel (échec de l'Atom, puis de son successeur le Core-M)

Le pire c'est que Intel a du faire comme AMD et "virtualiser" le CISC x86 sur un moteur RISC (pentium 3 et 4) car la montée en puissance du x86 originel ne suivait plus. Helas le moteur RISC qui supporte le x86 semble avoir atteint les limites de l'optimisation permises par l'architecture x86, vu que la puissance n'augmente pas et que la consommation ne baisse pas a puissance egale depuis plus de 6 ans...

Bref, relis plusieurs fos ce que j'ai ecris, et les commentaires des autres, relis wikipedia concernant Moore et les processeurs et arrete de citer des choses que tu ne lis pas et ne comprend pas.

avatar Stardustxxx | 

@C1rc3@0rc
"Bref, relis plusieurs fos ce que j'ai ecris, et les commentaires des autres, relis wikipedia concernant Moore et les processeurs et arrete de citer des choses que tu ne lis pas et ne comprend pas."

la loi de Moore s'applique au nombre de transistor, c'est tout.

Ce n'est pas la longueur de ton discours qui ca y changer quelque chose.

La loi de moore de parle pas d'efficacité énergétique ou autre, si tu n'arrives pas a comprendre cela, on ne peut rien pour toi.

avatar Bigdidou | 

@sachouba
"Si à puissance de calcul égale, on ne diminue pas la consommation, alors on n'augmente pas l'efficacité énergétique. "

C'est l'éternel problème des critères intermédiaires.
Tu parles de puissance de calcul de calcul théorique, mais on s'en fout.
La question c'est est-ce que je peux faire la même tâche ou plus dans le même temps en consommant moins d'énergie ?
Si la réponse est oui, alors le rendement énergétique de mon ordinateur, car d'est ici de ça qu'il s'agit (et pas des processeurs, qui sont des petits bouts de mon ordinateur) est augmentée.
C'est apparemment le cas ici.
Les autres considération n'ont aucune importance.

avatar sachouba | 

@Bigdidou :
Oh non, je ne parle pas de critères intermédiaires.
Je parle d'exporter une vidéo sur Final Cut Pro, par exemple.

Dans le cas fictif où le nouvel ordinateur consomme plus d'énergie pour cette tâche, mais que sa consommation minimale (quand il est inutilisé) est plus faible que l'ancien ordinateur, alors à mes yeux, il n'y a pas d'amélioration de l'efficacité énergétique, mais une régression.

Alors peut-être que le nouvel ordinateur consommera moins d'énergie à ne rien faire, mais ce n'est pas équivalent à une meilleure efficacité énergétique.

avatar fte | 

@sachouba

Tu aurais dit Première, ça aurait éventuellement tenu la route en ne regardant pas le raisonnement de trop près.

Mais tu as cité FCP. Qui a un fonctionnement très différent de Première. Qui fait le boulot morceau par morceau, transition par transition, et se contente d'un assemblage de fragments préparés à l'avance au moment de l'export, en gros.

Bref. Une charge éminemment variable. Qui se trouve être le point fort des améliorations énergétiques apportées par les dernières évolutions des processeurs qui nous intéressent.

Non seulement le raisonnement est erroné, mais l'exemple est en réalité un contre-exemple.

Marrant d'ailleurs comme position en commentaire d'un article ventant l'efficacité améliorée. ;)

avatar sachouba | 

@fte :
Eh bien remplace FCP par Première (ou n'importe quel logiciel de ton choix) dans l'exemple FICTIF que j'ai donné, si tu préfères (c'est le principe d'un exemple fictif, on peut mettre ce qu'on veut à l'intérieur).
Je ne connais pas assez bien le fonctionnement de FCP.

avatar fte | 

@sachouba

L'autre avantage des exemples fictifs sont les conclusions fictives.

L'utilité et la pertinence sont fictives également.

Bref. Importance et interêt fictifs. Moving on.

avatar Bigdidou | 

@sachouba
[DIALOGUEDESOURDSON]
Tu parles donc bien de critères intermédiaires et tu ne réponds en rien à mon objection.
Ce qui est important, c'est le temps qu'a mis un ordinateur pour accomplir un tache donnée, et l'énergie qu'il a consommé pour ça, dans des conditions données. S'il consomme moins, c'est que l'ordinateur a une meilleure efficacité énergétique.
Les processeurs et autres petits bidules qu'il y a dedans, c'est une autre histoire, et c'est juste pas le sujet qui est "l'ordinateur".
Je vais le refaire une fois.
Dans la phrase "L'efficacité énergétique des nouveaux MacBook Pro est « impressionnante »", il est question du mbp en entier, pas des processeurs. Parler des processeurs ici, c'est hors sujet.
Ça parait pas très compliqué, pourtant.
[DIALOGUEDESOURDSOFF]

avatar sachouba | 

@Bigdidou :
En quoi "l'énergie consommée par une tâche donnée sur un ordinateur donné" est un critère intermédiaire ?

avatar Bigdidou | 

@sachouba

C'est vraiment un dialogue de sourds.
C'est ce critère qui compte, justement, qui n'a rien d'intermédiaire, contrairement aux délires sus-jacents à,propos de la consommation des processeurs. J'arrête là, et c'est la dernière fois que je réponds à un de tes posts. Je te pensais intelligent et relativement apte à une discussion sensée malgré tes trolls, mais à l'évidence, non.

avatar sachouba | 

@Bigdidou :
Mais je ne critique absolument pas ce que tu dis !
Je ne comprends pas pourquoi tu tiens à me parler de processeurs alors que je n'évoque à aucun moment le fonctionnement ou la consommation du processeur.
Pas la peine de s'énerver comme ça...

avatar C1rc3@0rc | 

@sachouba
Merci

avatar Gladjessca | 

@C1rc3@0rc

Belle démonstration.

Pages

CONNEXION UTILISATEUR