L'efficacité énergétique des nouveaux MacBook Pro est « impressionnante »

Anthony Nelzin-Santos |

« L’efficacité énergétique des nouveaux MacBook Pro est impressionnante » dit Benedict Slaney. Il est plutôt bien placé pour le savoir : il développe Battery Guru, ce menulet qui permet de garder un œil sur l’état de la batterie des Mac portables, depuis bien longtemps. « Je ne sais pas exactement ce qu’Apple ou Intel ont fait et bien fait », ajoute-t-il, « mais dans des conditions d’usage réduit, la consommation a été divisée par deux par rapport à la précédente génération. »

Comment expliquer, dès lors, les fortes variations du témoin d’estimation de l’autonomie qui ont motivé les correctifs apportés par macOS 10.12.4 ? Après avoir étudié le code de macOS relatif à cet affichage, librement disponible, Slaney aurait tendance à confirmer que son fonctionnement était sans doute trop simple pour juger correctement les subtilités des processeurs récents.

« Puisqu’il se base uniquement sur une moyenne de la déplétion de la capacité de la batterie », explique-t-il, et que « le processeur passe parfois dans un état où il consomme plus pendant une minute ou deux », l’estimation peut être faussée. Apple aurait sans doute pu corriger son mécanisme d’estimation plutôt que de le retirer, d’autant qu’il semble capable d’intégrer la capacité d’une batterie externe, une fonction d’autant plus intéressante maintenant que les Mac portables possèdent des prises USB-C.

Mais cela aurait peut-être demandé plus de temps que l’ingénierie n’est prête à accorder à une fonction qui n’est sans doute pas jugée prioritaire. Certains de ses aspects tiennent en effet du bricolage hâtif plus que de la fonction raffinée, comme ces quelques lignes qui limitent l’estimation à 10 heures, « parce que nous ne distribuons pas encore de batteries tenant 44 heures ». Et ces 10 heures représentent le « chiffre magique » en fonction duquel les batteries des Mac portables (et des iPad) sont conçues.

Après quelques mesures, Slaney confirme en tout cas que les nouveaux MacBook Pro consomment beaucoup moins que les anciens lors d’un usage modéré, en partie grâce aux progrès réalisés par les processeurs d’Intel, mais surtout grâce aux énormes avancées réalisées par les écrans. Mais puisqu’ils possèdent une plus petite batterie, ils se déchargent plus rapidement lors d’un usage plus vigoureux. L’un et l’autre procèdent de la même logique, et expliquent les fortes différences de ressenti d’un utilisateur à un autre.

avatar levincefr | 

Il est payé par Apple pour dire ça ?

La batterie, c'est un fait, tient moins longtemps que les anciennes. Que la raison soit que la capacité est moindre, je m'en fous. Moi ce qui m'intéresse, c'est l'autonomie de la batterie pas sa capacité.

L'indicateur d'autonomie restante a été supprimé bizarrement quand la valeur annoncée était moins flatteuse.

Bref, on est sur de la branlette de marketeux.

avatar poco | 

@levincefr

"Bref, on est sur de la branlette de marketeux"

On est d'accord.

avatar C1rc3@0rc | 

Probablement, cela doit faire partie de la communication virale orchestré par le pompier en chef d'Apple -Schiller- qui depuis plus de 5 ans de scandales sait bien manier la lance...

Ceci dit il est indeniable que le travail d'Apple et d'Intel pour reduire la consommation releve du genie, mais parler d'efficacité energetique est faux!

« Je ne sais pas exactement ce qu’Apple ou Intel ont fait et bien fait »

Tres simplement, ils eteignent tout ce qu'il est possible d'eteindre et reduisent l'alimentation de tout ce qui peut l'etre et mettent en place des systemes de caches predictifs tres performant.

C'est juste l'inverse de l'efficacité energetique qui defini un rapport puissance/consommation.

Pour un processeur l'efficacité energetique c'est la puissance de calcul du core par watt consommé.

La il s'agit d'eteindre le core ou de le ralentir le plus possible, ça equivaut a couper le moteur aux feux, ou a passer en roues libres dans la moindre descente.
L'efficacité energetique consiste au contraire, pour garder la meme metaphore, a augmenter la puissance du moteur a consommation egale.
Quand on a un ARM qui double sa puissance tout les ans en diminuant sa consommation de 30% la on parle d'efficacité energetique.

Un autre exemple c'est le taux variable de rafraîchissement des ecrans. C'est pas de l'efficacité energetique, mais c'est de l'optimisation de fonctionnement: c'est certain qu'il n'y a pas besoin de recalculer une image qui ne varie pas entre deux rafraichissements et ça evite de faire tourner des transistors pour rien... mais c'est pas de l'efficacité énergétique.

Pour en revenir au Macbook Pro, ils ont trouvé le moyen de tirer le moins possible sur la batterie en éteignant et sous-cadençant tous ce qui peut l'etre.

Cela demontre sutout une chose, c'est qu'une partie des utilisateurs de PC disposent d'une puissance qu'ils n'exploitent pas. Jusqu'a il y a 6 ans ces utilisateurs n'avaient pas beaucoup d'autres choix, la course a la puissance etant le fond de commerce du marketing, ils n'avaient que des machines sur-dimensionnées. Aujourd'hui les utilisateurs qui sont satisfaits avec un MBPro touch bar le seraient avec des tablettes basiques ou des Chromebook a 300$.

Par contre si on met un calcul lineaire sur la machine on va vite voir que c'est pas de l'efficacité energetique...

avatar toketapouet | 

@C1rc3@0rc

On s'en fout, si ça fonctionne. Et chez moi ça fonctionne à merveille ?

avatar Malouin | 

Merci... mais moi aussi ! Mon Macbook Pro 15" tient 9H00/10H00 en utilisation normale (grosse utilisation bureautique et internet). Et la Touche bar avec l'utilisation d'Office MAJ commence vraiment a devenir pertinente

avatar Domsware | 

@C1rc3@0rc

"Aujourd'hui les utilisateurs qui sont satisfaits avec un MBPro touch bar le seraient avec des tablettes basiques ou des Chromebook a 300$."

Quelle affirmation !

avatar Gladjessca | 

@Domsware

C’est exactement ce qui se passe avec mon MacBook, une merveille pour une utilisation courante demandant peu de puissance (web, mails, compta, Parallel Windows 10, Word, Excel...). La batterie dure longtemps et le Mac peu tout faire malgré son processeur anémique.
Toute la journée en pro. Je dois être dans la catégorie de clients type qu'Apple recherche...

Par contre on ne produit pas avec... impossible. Un photographe avec le nouveau MacBook Pro TB peut rencontrer un soucis d'autonomie avec une forte sollicitation.

avatar toketapouet | 

@Gladjessca

?‍? "Par contre on ne produit pas avec... impossible. Un photographe avec le nouveau MacBook Pro TB peut rencontrer un soucis d'autonomie avec une forte sollicitation."

? C'est vrai. Si il n'a pas de cerveau et est à 25€ près ?

Grâce au port USB-C, le Powerbank Anker (payé 25€) que je trimballe en permanence dans ma sacoche peut recharger trois fois mon MBP 15"...

Je quadruple donc son autonomie, ce qui me met à 36-40h en utilisation classique (web mail bureautique), et à 18-24h si je travaille sur lightroom constamment (ce qui n'arrive jamais).

Cette histoire d'autonomie est un non problème... ?

avatar HellTiger | 

Aaaaah Toketapouet, c'est toujours un plaisir de te lire :)
Pertinent, factuel et pragmatique :)

avatar toketapouet | 

Merci ?

J'essaie de rester pragmatique et non partisan, mais ce n'est facile pour personne ? (j'aime plus mon Mac que ma voiture, je ne suis donc pas totalement objectif ?)

avatar pocketalex | 

@Gladjessca

Je me sers de mon Macbook pour bosser sur du très lourd : photoshop, lightroom, after effect, Première Pro et même de la 3D

Comment je fais ? je pilote ma station de travail à distance :)

Je prends soin de désactiver mes moniteurs supplémentaires pour ne conserver que le principal (1920x1080) et j'utilise Jump Desktop et sa nouvelle techno "fluid" qui met sa race au déjà excellent Splashtop qui était déjà pas mal mais pas encore parfait

Avec une connexion 4G ou fibre, c'est 100% fluide, avec une 3G ou un ADSL, c'est limite limite mais ça permet de dépanner

Je viens de passer une semaine de vacances dans la drôme, et bien sur le boulot m'a rattrapé certains jours, pas de souci, mon Macbook et ses 900grammes m'ont permis de taffer très confortablement (bon, sans le multi écran mais c'est pas si limitant que ça) sans devoir rapatrier les Go de datas de mes projets, je bossais direct sur ma machine de l'agence, sur le réseau de l'agence, et à peine moins rapidement que quand je suis à mon bureau

J'ai bossé à la campagne ou dans le TGV

Aucune machine ou tablette ne m'offre le confort de travail que m'offre le Macbook 12" dans cet usage, et vu les budgets en jeu le prix du Macbook 12" est depuis longtemps plus que rentabilisé

Que du bonheur ce laptop

avatar toketapouet | 

@Pocketalex

Intéressant ça, je ne connaissais pas cette solution!

avatar pocketalex | 

@toketapouet

J'ai essayé à peu près toutes les solutions du marché, et l'énorme majorité est quasi inutilisable - surtout les gratuits - sauf à vouloir faire une intervention ponctuelle à distance pour consulter un fichier, modifier un texte ou je ne sais quoi d'autre de très basique

Mais avec le temps (beaucoup de temps) certains logiciels ont bien évolué et ceux que je viens de citer (splashtop et jump desktop) arrivent à des résultats franchement intéressants.

Au moment où je t'écris, je bosse sur ma station de travail de mon boulot, de chez moi, et j'ai une telle fluidité que je ne vois quasiment pas la différence.

Il reste encore quelques bugs sur Jump Desktop (mauvais affichages de curseurs dans photoshop, pas de son) mais cela est insignifiant par rapport à SplashTop et ses mapping clavier foireux et ses performances moindres, et biens sur par rapport à tous les autres (Ultra VNC, TeamViewer, etc) qui sont méga-buggués et d'une lenteur rédhibitoire

avatar fte | 

@pocketalex

J'ai longtemps utilisé l'Apple Remote Desktop pour bosser sur un Mac en Californie, depuis la Suisse, par un VPN, avec beaucoup de satisfaction.

C'était assez impressionnant lorsqu'on y pensait deux secondes.

Plus récemment j'ai beaucoup utilisé TeamViewer avec satisfaction, plus ou moins. L'expérience est moins bonne mais suffisante.

Actuellement j'utilise principalement le Remote Desktop de Microsoft, très fluide et rapide.

Dans tous les cas c'est la solution que je préférais lorsque je devais utiliser des apps gourmandes en mobilité sur mon vieux MacBook Pro. Il est pratiquement à ma retraite maintenant, mais la solution est toujours plus que valable pour économiser la batterie des machines plus récentes.

Je note tes retours et j'irai me renseigner sur l'application que tu cites. Ça m'intéresse beaucoup.

avatar pocketalex | 

@fte

beaucoup de ces apps ont des soucis de clavier, et majoritairement de mappage de touches

Pour Splashtop par exemple, le clavier est 100% fidèle sauf 3 touches :

le "@/#" qui fait ""
le "-/_" qui fait ")/_"
le "+/=" qui fait "-/+"

Tout le reste est parfaitement mappé

Si bien que si dans ton utilisation informatique tu es amené à utiliser le "@", le "#", le "-", le "+" ou le "=", ben c'est la merde

La moindre adresse email que je veux taper, je dois aller dans ma boite mail, chercher un mail et copier le "@" pour le coller ensuite.
Une fois ça va, régulièrement c'est rédhibitoire

Idem sous photoshop, si je veux zoomer / dézoomer (POMME + et POMME -), ce que je passe mon temps à faire dans ce logiciel, c'est encore de la perte de temps
Imaginez si vous travailler avec Excel, le plaisir de taper des formules avec les touches "+" "-" "=" mal mappées...

Ces inconvénients rendent ces apps chiantes à utiliser, et encore plus sur iPad où on a pas de souris ou de trackpad (la gestion avec le tactile de l'écran est pas vraiment pareil qu'un vrai trackpad) et le clavier est virtuel, il bouffe 1/3 de l'écran quand il apparait.

Mais le grand avantage de Splashtop par rapport à Team Viewer et autres, c'est la fluidité qui est incomparable. On passe du "lent/lag" à un truc enfin un minimum confortable.
Jusqu'ici, c'était le meilleur ... jusqu'a ce que Jump Desktop sorte leur techno "fluid" et là, ça déchire tout.

On est arrivé a une fluidité exemplaire, comme si on était devant sa machine, c'est très, très impressionnant. Et le mappage clavier est quasi parfait : toutes les touches sont fidèles. Je dis "quasi" parfait car le gestion des touches de fonctions est encore un peu problématique, plus précisément dans le cas où elles doivent rester appuyées longtemps
Exemple sous Photoshop, je prends un claque et je veux le transformer (POMME T), je prends une ancre et je l'étire, si je veux l'étirer proportionnellement je dois rester appuyé sur SHIFT, et là ... ben ça marche pas, c'est pas pris en compte.

Bref, je n'ai pas trouvé l'app parfaite, fluide et sans bug, mais dans la balance, Jump Desktop est actuellement tout en haut du panier : fluidité exemplaire et plus beaucoup de bugs clavier.

avatar fte | 

@pocketalex

Merci beaucoup pour ce retour détaillé ! Je n'en espérais pas tant :)

Je vais donc regarder ce logiciel que tu proposes.

avatar toketapouet | 

J'utilisais Team Viewer à Futuna, avec une connexion plus que médiocre (128-256K), ça n'était pas fluide mais ça passait, sachant que c'était globalement de la bureautique (logiciel médical).

Je note le nom en cas de besoin, merci ?

avatar pocketalex | 

"Aujourd'hui les utilisateurs qui sont satisfaits avec un MBPro touch bar le seraient avec des tablettes basiques ou des Chromebook a 300$."

En une phrase, l'ensemble de tout ton commentaire est décrédibilisé

Fait un effort, ou achète toi des neurones, et vient ré-essayer

avatar BLM | 

«Par contre si on met un calcul lineaire sur la machine»
C'est à dire ?

avatar Gladjessca | 

@BLM

Comme convertir un film en HD, 3 heures a plein régime ! C’est justement un bon test pour voir l'efficacité énergétique, les optimisations de consommation ne servent plus à rien dans ce cas.

avatar toketapouet | 

@Gladjess

?‍? "Comme convertir un film en HD, 3 heures a plein régime !"

? Pardon, mais qui irait convertir un film en HD sur un portable sur batterie pendant 3h?

Tu évalues l'autonomie d'une voiture en la poussant à 3000 tours/min en première en côte pendant des heures? ?

avatar NORMAN49 | 

Comme faire un traitement "qui prend plusieurs jours" (cf infra ;-)
Sans blague, il y a des gens suffisamment hardis (...) pour lancer ce type de calcul sur un portable fonctionnant sur sa batterie ?

Pour ma part, nos 3 MBPro sont géniaux, n'ont aucun problème sauf peut-être que le Magsafe me manque... pour la tranquillité d'esprit.

avatar C1rc3@0rc | 

@Gladjessca

Bon exemple.
Il y a aussi des usages moins grand public et plus professionnels, comme effectuer des calculs statistiques dans R, faire du data mining avec Python ou du simulations numeriques avec Scipy, ... en gros tous les traitements iteratifs sur des dataset.
Il y a aussi des traitements d'image, non pris en charge par le GPU (quand il y en a un), des indexations d'images ou de video sur des criteres complexes (reconnaissance de formes, de visage,..), etc
La j'ai en exemple un traitement assez basique en marketing de pretraitement d'un set de données issus d'une etude de marché. Le traitement est pas tres complexe mais très courant dans ce secteur et lancé sur un MBPro il prend plusieurs jours... On a des traitements du meme genre en finance, en bio-informatique, en mathematique, en physique, en mécanique, et en climatologie. Des qu'on a de la modelisation a faire y a souvent des traitements de ce type.
Alors on peut lancer le calcul sur un serveur distant, mais il faut deja avoir un accés et il vaut mieux des lors appliquer le traitement en local a un échantillon histoire d'etre certain qu'il n'y a pas d'erreur sur ce que l'on va lancer sur le serveur...

On peut aussi considerer des operations comme la compilation continue ( genre le playground de Xcode), certains types de traitements Javascript...

Apres il y a pas mal de taches d'ingenierie qui tombent aussi dans cette categories, tout comme dans l'industrie (automation, logistique, modélisation des flux de production,...)

Bref des que l'on sort de l'usage WEB/email/machine a ecrire/petite bureautique, on trouve tres vite un tas d'exemples qui touchent beaucoup de professions.

avatar toketapouet | 

@C1rc3@0rc

?‍? "le traitement est pas tres complexe mais très courant dans ce secteur et lancé sur un MBPro il prend plusieurs jours... "

? Tu crois sérieusement aux argument que tu utilises ?

"L'autonomie de cette voiture est scandaleuse, qu'arrivera t il si je veux faire un Brest Shanghai à 90 km/h en première ? Elle n'ira pas jusqu'à Morlaix. Voilà, CQFD, c'est un scandale !" ?

avatar pocketalex | 

@Gladjessca

"Comme convertir un film en HD, 3 heures a plein régime ! C’est justement un bon test pour voir l'efficacité énergétique, les optimisations de consommation ne servent plus à rien dans ce cas."

En gros, tu nous expliques avec ton commentaire que si l'on rajoute de l'eau chaude à l'eau froide, on obtient de l'eau tiède

Excuse moi mais ton commentaire ne m'inspire rien d'autre, c'est du niveau zéro, et je ne vois pas où tu veux en venir et quelle conclusion tu veux en tirer

Tu prends n'importe quel laptop du commerce concurrent au Macbook Pro, tu le fais tourner à 100%, et il tient 3h
Tu crois sérieusement que les PC concurrents vont faire mieux ? c'est le même CPU, les mêmes composants, c'est tout pareil pour un résultat équivalent : une faible autonomie

Et il en est de même depuis 20 ans, toutes machines confondues

La différence d'autonomie sera liée à la capacité de la batterie, celle du Macbook Pro 2016 est de 72Wh, celle des PC concurrents oscille entre 60 et 90Wh suivant les modèles ... super !!! tu vas gratter au mieux quelques minutes supplémentaires avec un PC quoi

C'est ça qui vous fait écrire des kilomètres de commentaires sur ce malheureux Macbook Pro ? ben il vous en faut pas beaucoup les amis

avatar jmtweb | 

C1...….Bien argumenté.

avatar fte | 

@jmtweb

Sauf que l'argumentation est du pur bullshit constellé d'erreurs et d'incompréhensions, couvrant une détestation d'Intel. Enfin, tu votes pour qui tu veux hein.

avatar C1rc3@0rc | 

@ jmtweb
Merci.

avatar Trillot Bernard | 

@C1rc3@0rc:

C'est bien du C1rc3@0rc!

Si ça marche, ça marche, le reste on s'en fout!

avatar Stardustxxx | 

@C1rc3@0rc
"Ceci dit il est indeniable que le travail d'Apple et d'Intel pour reduire la consommation releve du genie, mais parler d'efficacité energetique est faux!"

Ce qui est faux ce sont tes pavés qui racontent n'importe quoi. SI tu diminue la consommation de ton device c'est que tu as améliorer son efficacité énergétique.

Mais comme tu devrais accepter que les processeurs Intel font des progrès niveau énergétique, et
que cela va a l'encontre de ton discours de haine contre Intel, et bien non on a le droit a un de tes fameux pavé qui raconte n'importe quoi.

avatar sachouba | 

@Stardustxxx :
Le message de C1rc3@0rc était plutôt bien argumenté.
Si à puissance de calcul égale, on ne diminue pas la consommation, alors on n'augmente pas l'efficacité énergétique.

Diminuer la consommation et augmenter l'efficacité énergétique sont deux choses différentes.

avatar fte | 

@sachouba

A puissance égale les Kaby Lake sont pour la majorité des usages plus économes que disons Haswell.

Par majorité des usages, j'entends que le processeur ne tourne pas à pleine charge tous cœurs overclockés, cas de figure excessivement minoritaire y compris chez les créateurs de contenus.

Le stepping fréquence est très amélioré avec des changements d'états bien plus rapides. Donc l'efficacité est d'autant améliorée que la charge est variable et globalement faible. Un processeur désigné pour être plus efficace à gérer le scénario d'usages majoritaire, tu appelles ça comment ?

ARM utilise aussi cette technique, ainsi qu'une autre astuce, des cœurs de puissance soutenue beaucoup plus réduite pour limiter la consommation crête parce que le stepping sur ARM est beaucoup moins fin et avancé que chez Intel. Apparemment AMD a lui aussi beaucoup travaillé sur cette technique pour Ryzen.

ARM ne cherche pas à créer des processeurs à la puissance crête importante. Intel et AMD, si.

Après ce serait intéressant de comparer l'efficacité énergétique de crête des ARM et des x86 Intel et AMD, malheureusement pour le moment il n'y a rien qui atteigne le niveau de puissance des i7 ou Xeon d'Intel. Pas de comparaison possible à puissance crête donc. On va pouvoir bientôt comparer des i7 voire des i7 X99 aux Ryzen, avec, beaucoup de monde l'espère vivement, des niveaux de performance comparables. ARM n'y est pas encore, loin de là. Je doutes qu'ARM le soit jamais.

Le reste du discours n'est qu'enfumage. En particulier lorsqu'on sort que Intel triche et utilise des méthodes sournoises alors qu'ARM rulezzz (bien qu'utilisant les mêmes méthodes mais moins bien et d'autres). Bullshit.

avatar Bigdidou | 

@fte
"Le reste du discours n'est qu'enfumage"

Voilà.

avatar C1rc3@0rc | 

@fte

«ARM ne cherche pas à créer des processeurs à la puissance crête importante. Intel et AMD, si.»

Ben c'est totalement faux et doublement puisque tu generalises pour des domaines tres differents.

Le x86 est conçu sur le principe de la conjecture de Moore. Sa puissance depend du nombre de transistors et l'efficacite energetique est resultante de la finesse de gravure.
L'equation pour Intel etait simple, puisque en theorie a chaque paliers de gravure l’efficacité énergétique devait doubler...
Et l'environnement energetique de fond est le PC, avec une puissance fournie par une alimentation généralement située entre 650 et 1200 watts. Quand au TDP c'est entre 50 et 250 watts en moyenne, avec la prise en compte de système de refroidissement de plus en plus performants.

Cette equation s'est pris le mur avec le Pentium 3 et 4, et Intel a du commencer a vraiment prendre en compte l'efficacité de consommation avec l'architecture Core, pour laquelle les techniques de gestion d'alimentation ont commencé a devenir de plus en plus complexes: cadence dynamique, mise en veille d'unité, groupement d'unités de traitement, generalisation des coprocesseurs integrés,...

ARM a l'inverse a du prendre en compte des le tout depart des environnements embarqués et serveurs avec des contraintes energetiques qui demandaient une grande efficacité energetique.
En embarqué on ne peut pas attendre que l'efficacité energetique (puissance de calcul, degagement thermique) vienne de la finesse de gravure, d'autant que le processeur est sollicité en permanence, a l'inverse d'un PC ou les temps d'usage peuvent etre tres espacés.
Pareil pour le serveur en telecom, sa montée en charge est rapide et elle doit tenir jusqu’à des 24/24 sur des mois...

De fait un processeur ARM doit etre optimisé pour fonctionner a une puissance nominale qui est constante, et cela tout le temps de fonctionnement du materiel, ce qui peut vouloir dire du 24/24 ininterrompu. On peut donc pas compter sur des periode d'idle longue et de crete courte: on est toujours proche de 100%...

D'ailleurs Intel a du aussi prendre en compte ce type de fonctionnement avec le serveur. Et la y a pas de miracle, le x86 serveur a des TDP importants, donc un refroidissement puissant, une alimentation puissante et une cadence faible, mais ce qui le sauve c'est le multicore.

Avec l’avènement du mobile ARM a du adapter son architecture a un usage discret, ou de courtes periodes de fortes "charges" succédaient a des periodes d'idle longues, mais ou les contraintes energetiques sont encore plus fortes qu'en embarqué classique.
Un smartphone a une petite batterie qui doit alimenter un ecran energivore et la dissipation thermique est tres limitée sachant qu'en plus l'ecran et les reseaux en sont de gros producteurs.
Donc ARM a amelioré encore l'efficacité energetique tout en ameliorant la gestion d'alimentation.

Donc ARM est passé d'un modele de fonctionnement a 100% ininterrompu a un modele 0/100% plus proche du PC. Avec un énorme sucés, vu que l'efficacité energetique est fondamentalement au cœur de l'architecture ARM.

Intel de son coté a essayé d’améliorer l'efficacité énergétique: c'est l’échec de l'Atom et du Quark. Par contre la tres grande reussite d'Intel c'est l'exploitation de la latence et la mise en cache avec des scenario prédictifs extrêmement fins qui donne une illusion de fonctionnement basée sur une réactivité étonnante.

avatar Stardustxxx | 

@C1rc3@0rc
"Le x86 est conçu sur le principe de la conjecture de Moore. Sa puissance depend du nombre de transistors et l'efficacite energetique est resultante de la finesse de gravure.
L'equation pour Intel etait simple, puisque en theorie a chaque paliers de gravure l’efficacité énergétique devait doubler..."

Faux.
La loi de Moore dit une seule chose : doublement du nombre de transistor tous les 18 mois.
Ca ne parle pas d'autre chose.

avatar C1rc3@0rc | 

Deja commence par lire et essayer de comprendre ce que tu cites

Ensuite ce que tu dis de la conjecture de Moore est faux:
1er version: doublement de composants tous les 2 ans a cout egal.
2eme version: doublement des transistors tous les 18 mois a cout egal.
Et en plus c'est pas une loi, mais une conjecture.

Tu comprends ce que ça implique?

Et je le repete, le x86 est conçue selon le principe que la puissance depend du nombres de transistors et l'efficacité energetique repose sur la finesse de gravure. Pour composer avec le mur des 4Ghz et continuer a garder ce principe on est passé au multicore, qui lui a tapé le mur de la complexité d'une architecture fondementalement lineaire au-dela de 8 core.

Et la constance de la conjecture de Moore revisee tient au fait que l'industrie a pris la conjecture de Moore comme base de planning. en gros si Moore avait parlé de 4 ans au lieu de 18 mois, Intel aurait suivi un cycle de 4 ans... inversion de cause et d'effet.

avatar Stardustxxx | 

@C1rc3@0rc
""Deja commence par lire et essayer de comprendre ce que tu cites
C'est l"hopital qui se fout de la charité.

"Ensuite ce que tu dis de la conjecture de Moore est faux"
C'est toi qui a faux, regarde les 2 définitions :
"La loi de Moore a été exprimée en 1965 dans le magazine Electronics (en) par Gordon E. Moore, ingénieur de Fairchild Semiconductor, un des trois fondateurs d'Intel. Constatant que la « complexité des semi-conducteurs proposés en entrée de gamme » doublait tous les ans à coût constant depuis 1959, date de leur invention, il postulait la poursuite de cette croissance (en 1965, le circuit le plus performant comportait 64 transistors). Cette augmentation exponentielle fut rapidement nommée « loi de Moore » ou, compte tenu de l'ajustement ultérieur, « première loi de Moore »
En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des microprocesseurs (et non plus de simples circuits intégrés moins complexes car formés de composants indépendants) sur une puce de silicium double tous les deux ans2. Bien qu'il ne s'agisse pas d'une loi physique mais seulement d'une extrapolation empirique, cette prédiction s'est révélée étonnamment exacte. Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes.."

La loi empirique de Moore ne parle que du nombre de composants, ca ne parle pas d'efficacité énergétique comme tu l'affirmes.

"Et en plus c'est pas une loi, mais une conjecture."
C'est une loi empirique, certain parle de conjecture, certain de loi.
Il y a juste toi l'ayatolah pour aller argumenter sur ce point, ca prouve que tu n'as pas d'autre arguments d'ailleurs.

avatar C1rc3@0rc | 

Ben tout ça pour illustrer que tu ne comprend pas ce que tu lis, cites et meme ce que tu ecris.

1er point: une "loi empirique" c'est une constatation abusive.
Sinon c'est une observation, si c'est théorisé c'est une hypothèse et posé en principe c'est une conjecture.
Hormis «loi», ces termes désignent tous la nature "probabilistique" et incomplète. L'absence de preuve suffirait, mais le fait que Moore ait repris sa conjecture démontre qu'il s'agit bien d'une conjecture et pas une constatation et encore moins d'une loi.


«Constatant que la « complexité des semi-conducteurs proposés en entrée de gamme » doublait tous les ans à coût constant »

Si on parle de coût, on parle d’économie => la conjecture de Moore est, comme je l'ai décris un principe économique, qu'Intel a appliqué a la lettre: caler l’évolution du x86 sur une periode de 2 ans pour augmenter sa puissance en gardant le coût de production constant...
Ok pour le coup Moore avait omis un détail: le coût des lignes de production lui est devenu exponentiel, ce qui a posé sérieusement probleme a 22nm, et qui est devenu un cauchemar pour Intel a 14nm.

Donc la conjecture de Moore décrit d'abord un facteur de rentabilité et une stratégie commerciale.

Mais il y a aussi dans cette définition le principe de la puissance, de la consommation et aussi, mais la il faut avoir fait un peu de physique, celui de la production thermique, et donc de la perte de puissance et par conséquent de l'efficacité énergétique!

«Entre 1971 et 2001, la densité des transistors a doublé chaque 1,96 année. En conséquence, les machines électroniques sont devenues de moins en moins coûteuses et de plus en plus puissantes.."»

Magie, magie, hein!

> doublement de la densité
=> sur la meme surface on met 2 x plus de transistors.
=> les transistors sont 2 x plus petits
> les machines sont de plus en plus puissantes
=> plus de transistors = plus de puissance !
> pourquoi les transistors sont plus petits ? Parce qu'on les miniaturise
=> la gravure est plus fine!

La y a une notion de physique qui visiblement t’échappe,
> plus l’électricité doit traverser de matière qui lui oppose une résistance, plus il y a de production thermique. Ca a rapport avec une loi (demontrée donc) de la thermodynamique et un Anglais dans les annees 1800. Je fais simple, en réalité c'est plus complexe, mais le but c'est que tu suives.

La vocation du transistor n'est pas de servir de chauffage mais d'unité de calcul (en l’occurrence un truc en math pondu par un anglais vers 1800), la chaleur produite par watt consommé c'est de la puissance perdue! Plus le processeur chauffe, moins il est efficace énergétiquement.

=> moins de production thermique = moins de perte d’énergie sous forme de chaleur.
=> efficacité énergétique !
Enfin quand on parle de fonctionnement, parce qu’éteint évidement, c'est pas d'efficacité énergétique dont il est question...

Ok, les effets quantiques et autres joyeusetés prévues par la physiques finissent par pourrir les avantages «mécaniques» de la finesse de gravure, mais ça c'est grosso modo sous les 32nm, et ça on le sait expérimentalement au moins depuis 1999

Donc, pour Intel ( et son x86) et par la grâce de a la conjecture de Moore:
> gravure plus fine
> plus de transistors sur la meme surface
=> plus de puissance
=> coût constant
=> meilleure efficacité énergétique

En réduisant la finesse de gravure selon la période donnée par la conjecture de Moore, le X86 consommait autant pour une puissance qui augmentait mécaniquement. Et Intel s'en mettait plein les poches puisque le coût, définit pas la conjecture de Moore, était constant. Intel n'avait qu'a maintenir une bonne position dans la course a la finesse de gravure et le mécanisme du monopole Wintel faisait le reste. Merci Moore.

La ou ça bug, c'est quand le processeur bute sur le mur des 4Ghz, puis sur celui de l'exploitation logicielle du multicore (8 Core), puis sur les effets quantiques et autres joyeusetés qui accompagnent la finesse de gravure trop fine pour le silicium et finalement sur la consommation du core qui ne peut être réduite sans affecter la puissance de calcul.

Bref comme je l'ai ecris, l'efficacité energetique du x86 depend de la finesse de gravure. C'est mecanique. Et c'est l'impasse depuis que la finesse a passé les 32nm.

A coté de ça, il y a les architectures RISC, dont ARM.
Et on voit que si les ARM augmentent leur puissance tout en augmentant leur efficacité energetique, c'est independant de la finesse.
Pire encore, Nvidia a doublé l'efficacité énergétique de ses GPU Maxwell sans changer de gravure.

Donc clairement il y a une amélioration de l'efficacité énergétique qui utilise d'autres processus que la finesse de gravure: le travail sur l'architecture.
Sauf que pour l'architecture compliquée du X86 ça fonctionne pas et ce malgré tous les efforts d'Intel (échec de l'Atom, puis de son successeur le Core-M)

Le pire c'est que Intel a du faire comme AMD et "virtualiser" le CISC x86 sur un moteur RISC (pentium 3 et 4) car la montée en puissance du x86 originel ne suivait plus. Helas le moteur RISC qui supporte le x86 semble avoir atteint les limites de l'optimisation permises par l'architecture x86, vu que la puissance n'augmente pas et que la consommation ne baisse pas a puissance egale depuis plus de 6 ans...

Bref, relis plusieurs fos ce que j'ai ecris, et les commentaires des autres, relis wikipedia concernant Moore et les processeurs et arrete de citer des choses que tu ne lis pas et ne comprend pas.

avatar Stardustxxx | 

@C1rc3@0rc
"Bref, relis plusieurs fos ce que j'ai ecris, et les commentaires des autres, relis wikipedia concernant Moore et les processeurs et arrete de citer des choses que tu ne lis pas et ne comprend pas."

la loi de Moore s'applique au nombre de transistor, c'est tout.

Ce n'est pas la longueur de ton discours qui ca y changer quelque chose.

La loi de moore de parle pas d'efficacité énergétique ou autre, si tu n'arrives pas a comprendre cela, on ne peut rien pour toi.

avatar Bigdidou | 

@sachouba
"Si à puissance de calcul égale, on ne diminue pas la consommation, alors on n'augmente pas l'efficacité énergétique. "

C'est l'éternel problème des critères intermédiaires.
Tu parles de puissance de calcul de calcul théorique, mais on s'en fout.
La question c'est est-ce que je peux faire la même tâche ou plus dans le même temps en consommant moins d'énergie ?
Si la réponse est oui, alors le rendement énergétique de mon ordinateur, car d'est ici de ça qu'il s'agit (et pas des processeurs, qui sont des petits bouts de mon ordinateur) est augmentée.
C'est apparemment le cas ici.
Les autres considération n'ont aucune importance.

avatar sachouba | 

@Bigdidou :
Oh non, je ne parle pas de critères intermédiaires.
Je parle d'exporter une vidéo sur Final Cut Pro, par exemple.

Dans le cas fictif où le nouvel ordinateur consomme plus d'énergie pour cette tâche, mais que sa consommation minimale (quand il est inutilisé) est plus faible que l'ancien ordinateur, alors à mes yeux, il n'y a pas d'amélioration de l'efficacité énergétique, mais une régression.

Alors peut-être que le nouvel ordinateur consommera moins d'énergie à ne rien faire, mais ce n'est pas équivalent à une meilleure efficacité énergétique.

avatar fte | 

@sachouba

Tu aurais dit Première, ça aurait éventuellement tenu la route en ne regardant pas le raisonnement de trop près.

Mais tu as cité FCP. Qui a un fonctionnement très différent de Première. Qui fait le boulot morceau par morceau, transition par transition, et se contente d'un assemblage de fragments préparés à l'avance au moment de l'export, en gros.

Bref. Une charge éminemment variable. Qui se trouve être le point fort des améliorations énergétiques apportées par les dernières évolutions des processeurs qui nous intéressent.

Non seulement le raisonnement est erroné, mais l'exemple est en réalité un contre-exemple.

Marrant d'ailleurs comme position en commentaire d'un article ventant l'efficacité améliorée. ;)

avatar sachouba | 

@fte :
Eh bien remplace FCP par Première (ou n'importe quel logiciel de ton choix) dans l'exemple FICTIF que j'ai donné, si tu préfères (c'est le principe d'un exemple fictif, on peut mettre ce qu'on veut à l'intérieur).
Je ne connais pas assez bien le fonctionnement de FCP.

avatar fte | 

@sachouba

L'autre avantage des exemples fictifs sont les conclusions fictives.

L'utilité et la pertinence sont fictives également.

Bref. Importance et interêt fictifs. Moving on.

avatar Bigdidou | 

@sachouba
[DIALOGUEDESOURDSON]
Tu parles donc bien de critères intermédiaires et tu ne réponds en rien à mon objection.
Ce qui est important, c'est le temps qu'a mis un ordinateur pour accomplir un tache donnée, et l'énergie qu'il a consommé pour ça, dans des conditions données. S'il consomme moins, c'est que l'ordinateur a une meilleure efficacité énergétique.
Les processeurs et autres petits bidules qu'il y a dedans, c'est une autre histoire, et c'est juste pas le sujet qui est "l'ordinateur".
Je vais le refaire une fois.
Dans la phrase "L'efficacité énergétique des nouveaux MacBook Pro est « impressionnante »", il est question du mbp en entier, pas des processeurs. Parler des processeurs ici, c'est hors sujet.
Ça parait pas très compliqué, pourtant.
[DIALOGUEDESOURDSOFF]

avatar sachouba | 

@Bigdidou :
En quoi "l'énergie consommée par une tâche donnée sur un ordinateur donné" est un critère intermédiaire ?

avatar Bigdidou | 

@sachouba

C'est vraiment un dialogue de sourds.
C'est ce critère qui compte, justement, qui n'a rien d'intermédiaire, contrairement aux délires sus-jacents à,propos de la consommation des processeurs. J'arrête là, et c'est la dernière fois que je réponds à un de tes posts. Je te pensais intelligent et relativement apte à une discussion sensée malgré tes trolls, mais à l'évidence, non.

avatar sachouba | 

@Bigdidou :
Mais je ne critique absolument pas ce que tu dis !
Je ne comprends pas pourquoi tu tiens à me parler de processeurs alors que je n'évoque à aucun moment le fonctionnement ou la consommation du processeur.
Pas la peine de s'énerver comme ça...

avatar C1rc3@0rc | 

@sachouba
Merci

avatar Gladjessca | 

@C1rc3@0rc

Belle démonstration.

Pages

CONNEXION UTILISATEUR