Fermer le menu
 

Dell XPS 13, le concurrent du MacBook Pro 13" passe en "Kaby Lake Refresh"

Florian Innocente | | 13:00 |  105

Les MacBook Pro 13" avec processeurs "Kaby Lake" (7e génération) lancés en juin sentent encore l'odeur du neuf que la concurrence prépare la rentrée avec des modèles équipés en Kaby Lake de 8e génération. C'est le cas de Dell avec son XPS 13.

Dell XPS 13

Il embarque un processeur appartenant à la famille dite "Kaby Lake Refresh", plus puissante grâce à quatre cœurs physiques au lieu de deux (l'Hyperthreading est toujours au menu, pour aller jusqu'à 8 cœurs logiques avec des applications de modélisation 3D par exemple) et une puce graphique plus récente. Intel avance un gain en rapidité de 25 % lorsque les 4 cœurs fonctionnent et jusqu'à 40 % dans le meilleur des cas.

Chez Apple, ces Kaby Lake aux épaules plus carrées ont vocation à équiper les MacBook 13" dépourvus de la Touch Bar. Une configuration qui utilise aujourd'hui les références 7360U et 7660U.

Le 13" avec Touch Bar et les 15" emploient pour leur part des Kaby Lake pour lesquels Intel n'a pas encore annoncé la version boostée (lire Intel lance Kaby Lake refresh, une partie de sa 8e génération de processeurs).

crédit : AnandTech

Dell en fait profiter plusieurs de ses portables dont cet XPS 13" (Core i7 Quad, USB 3, Thunderbolt 3, lecteur SD), pour lequel le texan revendique un gain de 44 % en vitesse avec les 4 cœurs sollicités. Dans son argumentaire auprès des médias il l'oppose à tous les portables actuels d'Apple sauf les 15"

L'autonomie du XPS 13 est annoncée à 22h 21min avec des applications bureautique, 13h 21min avec le navigateur Edge ou encore 13h 31min avec Netflix. Des valeurs très flatteuses mais qu'il faut tempérer. Elles ne s'appliquent qu'à la configuration avec écran Full HD et Core i3 de la (désormais précédente) 7e génération. Avec le modèle QHD+ (3 200 x 1 800) et Core i5, de 7e génération toujours, on descend brutalement à respectivement 13h 15min, 8h 30min et 9h 30min.

En clair, Dell ne communique pas pour le moment sur ce que l'on peut espérer avec les même processeurs de huitième génération, et encore moins avec ce Core i7 Quad. La première configuration qui en sera équipée débutera à 1 400 $, lancement le 12 septembre. La version Core i5 "Kaby Lake Refresh" est prévue en octobre. En France ces machines sont vendues à partir de 1 300 €.

Quant à Apple, difficile de prévoir son calendrier qui est tributaire de celui d'Intel. La Pomme peut tout à fait réaliser une mise à jour de certains modèles sans tambours ni trompettes mais ce ne serait pas très cohérent avec sa manière de procéder. Il paraît bien plus logique qu'elle attendent qu'Intel dispose de Kaby Lake améliorés pour couvrir, d'un coup, l'ensemble de ses besoins sur les MacBook Pro 13" et 15".


Les derniers dossiers

Ailleurs sur le Web


105 Commentaires Signaler un abus dans les commentaires

avatar Franck971 30/08/2017 - 13:32 via iGeneration pour iOS

Sur le papier l'augmentation des performances semble légère dans la mesure ou le nombre de cœurs phtisique est doublé !
Curieux de communiquer sur l'autonomie des puces précédente...

avatar ErGo_404 30/08/2017 - 13:58

Pour les performances, 44% de performances en plus c'est déjà pas mal, et ça tient probablement du fait que leurs tests ne sont pas complètement parallélisables.

Pour l'autonomie, ce n'est pas curieux car leur gamme qu'ils viennent de sortir contient toujours des modèles avec des processeurs de la génération précédente. Par contre à défaut d'être curieux c'est trompeur, puisque beaucoup choisiront des versions plus consommatrices.

avatar SartMatt 30/08/2017 - 14:36

Il y a aussi le fait que sur 4 cœurs, ils ont une fréquence plus faible que les anciens sur 2 cœurs.

Donc si on fait abstraction de la légère hausse d'IPC, les performances théoriques n'augmentent de toute façon pas de 100%. Aux fréquences de base et à IPC égal, un 4 cœurs 1.9 GHz n'est que 52% plus rapide qu'un 2 cœurs 2.5 GHz.



avatar Marco787 30/08/2017 - 21:40

@ StarMAtt

Tout à fait d'accord, la fréquence est plus basse, donc moins de puissance.

Par ailleurs, la dissipation thermique est un autre facteur clé qui limite la performance, dans ce type de machines ultra compact.

Mais au final, et le point clé, est que pour une fois, une nouvelle génération apporte des gains substantiels, et bien au delà des environ 7% des itérations précédentes constatés au cours des dernières années.

avatar C1rc3@0rc 30/08/2017 - 22:21

@Marco787

« la fréquence est plus basse, donc moins de puissance.

Par ailleurs, la dissipation thermique est un autre facteur clé qui limite la performance, dans ce type de machines ultra compactes.»

C'est pas tout a fait ça, il faut plutôt parler de vitesse d’exécution plutôt que de puissance.
Si le soft est tres parallélisable (et que l’exécution en parallèle a ete bien programmée...) plus on multiplie les unités de traitement, plus la puissance augmente...
Par contre si le soft est peu parallélisable, ce qui est le cas de la plupart des programmes sur PC, la puissance repose sur la seule vitesse d'execution d'un core, et le fait d'en avoir plusieurs a gerer peut a l'inverse sérieusement dégrader les performances.

mais il faut aussi considérer un autre facteur...
Ce principe du multicore a ete elaboré pour reduire la consommation et la production thermique (par principe de sous cadençage et sous utilisation), pas pour augmenter les performances.

L'architecture choisie et tres efficace comme moyen de marger a mort, mais est une ineptie en terme de puissance. Les core doivent se partager la RAM et la majorité des circuits, ce qui implique des attentes, des interblocage, des controles pour eviter les catastrophe (genre un core qui ecrit dans la zone de RAM d'un autre,...) et donc il faut que les core soient sous le controle d'un ordonanceur unique, et cela degrade a la fois la performance en séquentiel mais plus encore en parallèle.

L'idee c'est qu'a moins de traitements intensifs vraiment parallèles, ça implique que le core sera moins actif et moins longtemps, la charge etant repartie sur 2 ou plus core, et on pourra aussi jouer sur la variation de frequence (a la baisse) pour reduire la consommation, sans que cela affecte la reactivité apparente (au contraire de la vitesse de traitement effective, qui elle est bien degradée).

Pour revenir au processeur en question, on parle de 4 core. Sachant que l'utilisateur va lancer sur un PC plusieurs programmes en meme temps, ouvrir plusieurs onglets dans son/ses navigateurs, il y a de quoi occuper en partie les 4 core, donc on gagne en performances dans la plupart des cas et surtout en réactivité (il va etre rare que les core soient occupés a 100%). Par contre, des qu'on va avoir un traitement intensif en séquentiel, la on va perdre en puissance de maniere sensible... et le "mode turbo" n'est qu'un pis-allé qui limite temporairement la dégradation de puissance.

«Mais au final, et le point clé, est que pour une fois, une nouvelle génération apporte des gains substantiels, et bien au delà des environ 7% des itérations précédentes constatés au cours des dernières années.»

Les iterations precedentes tapaient entre -5% et +5% en moyenne. L'efficacité energetique n'ayant pas progressé depuis tres longtemps, et Intel voulant contenir la consommation et la production thermique, y a pas de miracle, la seule option etait d'optimiser la consommation en fonction de l'usage, donc d'eteindre le plus vite possible le maximum de choses qui ne soient pas utilisées de maniere soutenu. Ceci explique la stagnation, voire la baisse de puissance, depuis plusieurs generation (en fait depuis Sandy bridge si on veut remonter a la precedente amelioration tangible).

avatar SartMatt 30/08/2017 - 23:50

"Ceci explique la stagnation, voire la baisse de puissance, depuis plusieurs generation (en fait depuis Sandy bridge si on veut remonter a la precedente amelioration tangible)."

Baisse de puissance depuis Sandy Bridge ? Mais décidément, c'est un puit sans fond...

Moyenne applicative du comparatif de Hardware.fr (http://www.hardware.fr/articles/965-2/performances-applicatives.html) :
* 2600K (haut de gamme Sandy Bridge) : 131.9
* 7700K (haut de gamme Kaby Lake) : 212.4

Soit quand même un +60% en 4/5 génération (4 si on ne compte pas la génération Broadwell, quasiment morte née), soit en moyenne +10% par génération sur les cinq dernières génération. C'est certes bien moins que ce qu'on a pu connaître par le passé, mais c'est surtout nettement plus que ce que tu prétends.

avatar C1rc3@0rc 01/09/2017 - 00:39

Essaye de mettre ton dogmatisme de coté et lire sans interpreter ce que j'ecris: «en fait depuis Sandy bridge si on veut remonter a la precedente amelioration tangible»

que tu traduis avec une mauvaise foi eclatante par: «Baisse de puissance depuis Sandy Bridge»

Je parle bien d'une amelioration, une des dernieres tangibles, pour Sandy Bridge!

Apres je parle d'amelioration de la puissance au niveau de l'architecture de base, pas de l'ajout d'unités de traitement, des coprocesseurs dont meme le modele de fonctionnement est totalement different de celui du x86. Je te mets au defi de demontrer une progression significative au niveau de la puissance du core, qui soit, aller soyons gentils de l'ordre de celle qu'on a connu avec les Ax d'Apple.

Et je remarque que tu es enfin revenu a la raison sur Broadwell meme s'il te reste
encore un peu de chemin pour reconnaitre l'echec cuisant qu'il est.

Quant a la baisse de puissance, elle est bien reelle dans l'usage avec la baisse de frequence de reference mais surtout avec les filouteries que sont les downcloking dynamiques et autres magouilles pour maintenir des TDP - dont la definition a geometrie variable est une specialité d'Intel - et qui sont tous sauf realistes.
Le fait est que ni la frequence des core, ni l'efficacité energetique, ni le nombre d'instructions traitées par cycles n'ont connu d'ameliorations significatives depuis des annees. La seule chose quIntel a vraiment amelioré, c'est le gaspillage electrique en mettant en place des gestions de l'alimentation de plus en plus fines et en sachant eteindre de plus en plus vite le maximum de composants...

avatar SartMatt 01/09/2017 - 10:49

"Quant a la baisse de puissance, elle est bien reelle dans l'usage"
C'est quoi que tu appelles "dans l'usage" ? Parce que le test applicatif de H.fr, c'est bien un test "dans l'usage", avec des vraies applications que des vraies gens utilisent vraiment dans la vraie vie sur leur ordinateur hein...

Mais puisque tu persistes à prétendre que cette baisse est bien réelle, tu dois être en mesure de fournir des tests et des mesures qui le prouvent, non ? Parce que sinon, tu ne fait que brasser du vent et t'enfoncer dans ton déni de la réalité...

"La seule chose quIntel a vraiment amelioré, c'est le gaspillage electrique en mettant en place des gestions de l'alimentation de plus en plus fines et en sachant eteindre de plus en plus vite le maximum de composants..."
C'est donc une amélioration de l'efficacité énergétique, puisqu'il parviendra à tâche égale à consommer moins d'énergie. C'est la définition de l'efficacité...

avatar Marco787 31/08/2017 - 10:30

"il faut plutôt parler de vitesse d’exécution plutôt que de puissance"

Puissance est un autre terme pour vitesse d'exécution... Plus un CPU est rapide à exécuter, plus il est puissant, et inversement. Quelle est votre définition de puissance sinon ?

Quand je parlais de puissance, il ne s'agissait pas de puissance au sens TDP, mais bien puissance de calcul.

"Les iterations precedentes tapaient entre -5% et +5% en moyenne." Pourriez-vous partager vos sources (liens Internet) ? Cela serait très utile.

Pour ne prendre que l'exemple du passage à l'avant dernière génération, le passage à Kaby Lake apporte plutôt aux alentours de 10% (http://www.pcworld.com/article/3127250/hardware/intel-kaby-lake-review-w...).

Et la batterie dure plus longtemps (cf. les détails dans l'article).

"L'efficacité energetique n'ayant pas progressé depuis tres longtemps" De quelles générations s'agit-il ? L'efficacité a bien progressé entre les générations 4 et 7 par exemple.

Votre dernier paragraphe change-t-il mon point clé -qui devrait être le point clé pour les acheteurs : ces processeurs offrent-ils un gain de puissance notable ? (Quand vous parlez de baisse de puissance dans ce dernier paragraphe, vous faites référence à la puissance électrique. Cela n'est bien sur pas mon propos clé. Je ne m'intéresse qu'à la capacité à "mouliner.")

avatar C1rc3@0rc 01/09/2017 - 01:46

@ Marco787

«Quelle est votre définition de puissance sinon ?»

Ben exactement ce que j'ai ecrit... «Si le soft est tres parallélisable (et que l’exécution en parallèle a ete bien programmée...) plus on multiplie les unités de traitement, plus la puissance augmente...»
je rajoute pour que cela soit explicite: indépendamment de la fréquence par core. Car la vitesse d’exécution c'est hélas trop souvent la fréquence par core, qui se fait passer pour la puissance de traitement.

Pour te donner un exemple concret:
- soit un traitement qui comprend 10 taches.
- chaque tache est executable de maniere independante et ne necessite pas d'attendre la fin d'un autre tache.
- chaque tache necessite entre 5 et 10 minutes de traitement par un processeur de reference, dont la frequence vaut 1.

Donc on a un temps d'execution de reference qui sera alors situé entre 50 et 100 minutes, disons 70 minutes dans le cas choisi.

On prend 2 processeurs:
- un sequentiel dont la frequence vaut 2
- un parallèle avec 15 core dont la fréquence vaut 1.

Temps de traitement:
- processeur sequentiel a frequence 2 => ~ 35 minutes
- processeur parallele a frequence 1 => ~ 10 minutes

Le multiprocesseur est donc 3.5 fois plus puissant que le processeur sequenciel qui a une frequence pourtant 2 fois supérieure... Le processeur sequentiel a beau courir 2 fois plus vite, il reste 3,5 fois plus lent que le proc parallele.

pour que le processeur sequentiel depasse en puissance (la vitesse de traitement dans cette situation) le multiprocesseur il faudrait que sa frequence soit superieures a 7.
Mais le pire c'est que la puissance du multriprocesseur croit bien plus vite si on rajoute des core et que l'on augmente leur frequence... Si on augmente la frequence du processeur parallele a 3, il faudrait que le processeur sequentiel lui depasse une frequence de 20 pour tenir la cadence...

Pire encore, si l'ensemble des taches necessite 10 minutes... le temps d'execution par le processeur parallele a frequence 1 sera toujours de 10 minutes, alors que le processeur sequentiel a frequence 2 mettra 50 minutes...

Cela est theorique bien sure, en pratique il y a un ensemble d'elements qui compliquent le calcul, mais dans les faits, sur un traitement parallelisable, un processeur parallele est plus infiniment plus puissant qu'un processeur sequentiel.

Par contre, le rapport s'inverse sur un traitement sequentiel. A frequence egale, le multiprocesseur sera plus lent et consommera plus que le processeur séquentiel. C'est pour cela que dans le cas des PC et des stations de travail, dans l'ecrasante majorité des cas il vaut mieux avoir un 4-core a 4Ghz qu'un 10 core a 2 Ghz...

Et le probleme avec les architectures comme le x86, a fur et a mesure qu'on augmente la frequence, on fait exploser le consommation electrique et la production thermique. A l'epoque des Pentium 3 et 4 le x86 a atteint les limites de fonctionnement en refroidissement conventionnel avec la fréquence des 4Ghz. AMD a alors augmenté l'efficacité par cycle en virtualisant le x86 sur un moteur RISC, mais les limites ont vite ete atteinte. Apres c'est la multiplication des core qui a alors pris la releve, mais les soft du PC (tel que programmés aujourd'hui) ne permettent pas un fort parallélisme, donc le maximum de benefice a ete atteint avec 4 core en moyenne et 8 core dans les cas les plus rares.

Reste donc 2 options pour augmenter la puissance
- changer de matériaux (pas de résistance électrique...) ou trouver un système de refroidissement défiant les lois de la physique
- augmenter le nombre d’opération par cycle (le Graal, dont le x86 est incapable)
- changer d'architecture (on voit l'efficacité du GPGPU par exemple).

avatar SartMatt 01/09/2017 - 11:11

"C'est pour cela que dans le cas des PC et des stations de travail, dans l'ecrasante majorité des cas il vaut mieux avoir un 4-core a 4Ghz qu'un 10 core a 2 Ghz..."
Ça c'est si tu pars sur le principe qu'un CPU fonctionne à fréquence fixe... Et c'est exactement pour répondre à cette problématique que tous les fabriquants de CPU ont aujourd'hui un "turbo" (y compris les CPU ARM, même si souvent les fabricants, Qualcomm en tête, ne communiquent que sur cette fréquence turbo, qui n'est en fait jamais atteinte quand tous les cœurs sont en charge...).

Prenons par exemple le Core i7-7920HQ 4C à 3.1 GHz et le Core i7-7567U 2C à 3.5 GHz. C'est vrai que si on ne raisonne que sur la fréquence de base, le second devrait être sensiblement rapide quand il n'y a qu'un ou deux threads.

Sauf que le i7-7920HQ avec son turbo pourra monter jusqu'à 4.1 GHz sur un seul cœur et 3.9 GHz sur deux cœurs, alors que le 7567U est limité à 3.9 GHz sur deux cœurs et 4 GHz sur un cœur. Résultat des courses, même avec une charge avec seulement un ou deux "gros" threads, le i7-7920HQ ne sera pas plus lent que le 7567U, voire même légèrement plus rapide, d'autant que son enveloppe thermique plus large lui permettra d'exploiter plus facilement ces fréquences turbo.

"Et le probleme avec les architectures comme le x86, a fur et a mesure qu'on augmente la frequence, on fait exploser le consommation electrique et la production thermique."
Exactement comme n'importe quelle architecture... Il n'existe pas d'architecture capable d'aller à l'encontre des lois de la physique...

"AMD a alors augmenté l'efficacité par cycle en virtualisant le x86 sur un moteur RISC, mais les limites ont vite ete atteinte."
Et ça fait surtout trèèèèès longtemps qu'en interne les CPU x86 ne sont plus RISC.
Et les CPU RISC efficaces ne le sont plus non plus en interne.
Tous ont adopté en interne des architectures qui se classeraient plutôt dans le VLIW.

"- changer d'architecture (on voit l'efficacité du GPGPU par exemple)."
Forcément, une architecture spécialisée est toujours plus efficace dans les tâches pour lesquelles elle est spécialisée (et le GPGPU n'est d'ailleurs pas le summum, un ASIC peut encore atteindre une efficacité largement supérieure). Mais par définition, une architecture spécialisée n'est efficace que pour les tâches pour lesquelles elle est spécialisée... En ce sens, le "GP" de GPU est largement usurpé. C'est du "general purpose" dans le sens où on lui fait faire des traitements qui ne sont pas graphiques, mais ça n'en est pas du tout dans le sens où elle pourrait faire efficacement n'importe quel type de traitement, comme un CPU. Un GPU n'est efficace que pour faire des choses qui "ressemblent" à ce qu'on fait dans le domaine graphique.

avatar Marco787 01/09/2017 - 20:11

@C1rc3@0rc

Je vous remercie pour vos explications : votre propos m'est plus clair.

Mais il me semble que vos réponses ne sont pas tout à fait liées à mon sujet, ou pour être plus spécifique, ne contredisent pas mes propos, mais les confirment.

Vous indiquez : “Mais le pire c'est que la puissance du multriprocesseur croit bien plus vite si on rajoute des core et que l'on augmente leur frequence”

En d’autres termes, une fois cette opération réalisée pour aboutir à un CPU donné (ce qui est le sujet), un abaissement de x% de sa fréquence -quelque soit la ou les raison(s)- entraine une réduction de sa puissance. L’inverse serait difficilement possible il me semble. Tel est mon propos.

P.S. Concernant vos explications plus générales, une simplification est faite il me semble -chaque unité de traitement est identique entre les processeurs-, ce qui permet d’affirmer :

"Si le soft est tres parallélisable (et que l’exécution en parallèle a ete bien programmée...) plus on multiplie les unités de traitement, plus la puissance augmente...»"

Le nombre et le type d'instructions gérés par cycle et par unité de traitement peut varier d’un processeur à un autre.

avatar fte 30/08/2017 - 13:40

ça c'est le côté sympa des PC, on ne se pose jamais la question de combien de temps vont mettre les constructeurs pour mettre à jour leurs gammes...

avatar MacOSXI 30/08/2017 - 14:07 via iGeneration pour iOS

Quand je pense que le MBP13 TB me tient à peine 5h en utilisation normale (8h avec la même utilisation sur un MBP13 Retina)... Ça pique. Et d’après Apple c’est tout à faire normal, la batterie a été vérifiée et les logs analysés par l'équipe de Craig en personne... 🤔

avatar ErGo_404 30/08/2017 - 14:00

Après entre les autonomies annoncées et les autonomies réelles...
Quand on travaille sur des logiciels lourds (type ide pour développer, photoshop/lightroom, ou même un navigateur avec plein d'onglets) je suis à peu près sûr qu'on est plus proche des 5h sur ce dell...

avatar MacOSXI 30/08/2017 - 14:09 (edité)

Ah ça c'est sûr. Le problème c'est que sur les derniers MacBook Pro dès que t'utilises un peu la machine tu tombes à 5 heures. Il suffit d'un peu de Safari, Mail et une vidéo et là c'est le drame, pourtant on ne peut pas dire que ça soit une utilisation très lourde.

Et alors quand on lance Photoshop, Final Cut Pro X et Logic Pro X ça tape plus dans les deux heures. C'est carrément anémique et pire que mon 1er MacBook Pro en 2009 😐. Je suis quasiment certains que le Dell XPS fait mieux de ça (enfin j'espère pour eux car c'est difficile de faire pire en fait 😂).

Et encore une fois ce n'est pas un problème de machine, elle a été entièrement analysée et elle répond aux exigences d'Apple (qui ont bien baissées visiblement ! ).

avatar melaure 30/08/2017 - 15:13

C'est faible par rapport à tous les PowerBook/MacBook Pro Alu qui avait 5 heures d'autonomie annoncé, les tenaient quasiment en bureautique, et te faisaient deux heures sous UnrealTournament/Quake ...

Dommage Apple avait tendance à ne pas gonfler les chiffres avant, donc si maintenant à l'heure Cook, on annonce des durées avec une machine où tu utilises juste TextEdit ... et en plus tu n'as plus de disque dur physique et lecteur optique, plus consommateur. Ca craint :(

avatar MacOSXI 30/08/2017 - 15:11

Clairement...

J'ai contacté Craig à ce sujet et il m'a envoyé un mail assez hallucinant. "Expliquant" que dans les machines modernes l'autonomie est très aléatoire (processeurs qui changent de fréquence constamment, etc) et qu'ils ne pouvaient rien y faire. Que de leur côté, Apple a un test Safari standardisé et qu'il s'en tenait à obtenir 10h sur ce test... 😂

Autant dire que le test est ultra optimisé et pas du tout représentatif d'une utilisation web standard. Et il a ajouté qu'un ordinateur pro avec une autonomie de 2 à 5h ça ne le choquait pas. Bref, je crains qu'ils ne soient totalement à la ramasse et qu'ils n'assument pas d'avoir totalement sous-estimée la capacité de batterie des nouveaux MacBook Pro.

Et oui, en divisant la capacité presque par 2 par rapport à la génération précédente il ne faut pas s'attendre à un miracle. Certes les processeurs consomment moins, mais seulement en charge très faible... Idem avec l'écran. Ils ont réussi à sauver la mise dans leur test avec des optimisations dédiées, mais dès qu'on utilise vraiment l'ordi c'est le drame 😐

Et le pire c'est qu'il n'y a rien à faire, c'est "normal"...

Je pense que la moindre des choses du côté d'Apple serait de ne pas mentir aux clients et être transparent sur l'autonomie réelle des machines. Ce nouveau MacBook Pro affiche une autonomie "jusqu'à 10h", comme le retina avant lui. On pourrait donc penser que les deux machines présentent les mêmes performances mais ce n'est pas du tout le cas. Il y a clairement tromperie.

avatar melaure 30/08/2017 - 15:28 (edité)

Heureusement qu'il y a des tests utilisateurs et des tests de sites spécialisés.

D'ailleurs il n'y a pas longtemps j'ai vu un test assez large sur le monde des portables (Tom's il me semble), et les portables Apple étaient plutôt dans le milieu du panier niveau autonomie, alors qu'ils étaient toujours au dessus autrefois. A l'époque du Titanium (j'avais un 550), on était à 04h30 réelle quand les meilleurs PC étaient à 02h00/03h00 ... comme quoi le matos PC a bien changé, il ne manque qu'OS X en fait ! :D

avatar lmouillart 30/08/2017 - 17:42 (edité)

"on était à 04h30 réelle quand les meilleurs PC étaient à 02h00/03h00 ... comme quoi le matos PC a bien changé, il ne manque qu'OS X en fait ! :D" hors Thinkpad alors.

avatar C1rc3@0rc 30/08/2017 - 22:32

@MacOSXI

On est sur le meme probleme que la bagnole avec les spec de consommation relevant de la plus grande fantaisie, mais qui sont toujours données selon des bench tres etablis...

Comme tu le dis le probleme est mathematique: avec la meme efficacité energetique, si on divise la puissance de la batterie, on divise forcement l'autonomie d'autant. Et le fait est que le x86 a pas bougé au niveau performance energetique depuis des décennies et que de part
sa conception il est deja pas bon a la base.

Apres Intel a fait un vrai travail d’orfèvre en terme de gestion d'alimentation et sous-cadençage dynamique... les dernieres generations de proc pour mobile savent exploiter les moindres opportunités pour ne rien foutre et donc ne rien consommer, mais ça permet de gagner que tres peu en autonomie (en fait y a moins de gaspillage, mais pas plus d'efficacité)

L'autre gros probleme sur les MBpro touch bar, c'est ... la touch bar. Ca bouffe de l'energie inutilement. Pas des masse, certes, mais sur une machine deja au bord de l'asphixie c'est enorme comme impact.

Il reste plus a esperer que cet automne, la sonnette ait suffisament sonné et qu'Apple sorte des Macbook Pro "pro" sans touch bar et avec une meilleure batterie.

avatar SartMatt 30/08/2017 - 23:43

"Et le fait est que le x86 a pas bougé au niveau performance energetique depuis des décennies et que de part"
Décidément, tu t'améliores pas...

Hardware.fr a justement refait récemment un comparatif en ressortant des CPU des 10 dernières années (donc à peine UNE décennie, même pas "des décennies").

Entre le Core 2 QX9770, qui était le premier quad grand public d'Intel, en 2008 et le Core i7-7740K qui est le quad core le plus performant d'Intel aujourd'hui, l'efficacité énergétique sur un thread a été multipliée par... 7.7 . Rien que ça.
Et en poussant le CPU a ses performances maximale, elle est multipliée par 4.4.
Si on compare ce vénérable ancêtre avec le CPU Intel le plus efficace de ce comparatif (le Pentium G4560), l'efficacité sur 1 thread a été multipliée par 10.5, et l'efficacité à 100% de charge a été multipliée par 6.1.

http://www.hardware.fr/articles/965-4/consommation-efficacite-energetiqu...

Mais bon, je suppose que ça t'empêchera pas à continuer de colporter tes croyances, il y aura hélas toujours des cons pour te croire sur parole...

avatar C1rc3@0rc 01/09/2017 - 02:42

@SartMatt

ah toujours a insulter ceux qui n'adoptent pas tes dogmes fondamentalistes surannés je vois.

Et confondre efficacité énergétique et réduction du gaspillage électrique, il faut quand même le faire.

Et puis ta lecture partiale et dogmatique filtre meme ce qui est ecrit dans l'article que tu cites en pseudo-reference «Il est fascinant de voir à quel point nous avons progressés sur ce point ces dernières années où l'on a presque divisé par trois la consommation au repos entre un Core 2 Extreme et un 7700K

Ah ça je suis bien d'accord, les progres au niveau de la reduction du gaspillage electrique releve de l'orfevrerie... Intel a reussi a faire des processeurs qui consomment 3 fois moins quand ils n'ont rien a faire!
Pour ce qui est de l'efficacité énergétique, la par contre... ben on regarde chez ARM par exemple...

Ah oui tu as aussi oublié de mentionner le nom complet du Core 2 QX9770 que tu qualitfies de le premier quad grand public d'Intel c'est en fait Core 2 Extreme QX9770, donc le summum de la puissance pour hardcore gamer et overcloker furieux, sans se preoccuper de la consommation hein, m'enfin bon de ta part ce genre d’imprécision est courant. In the great x86 I trust ;)

Et puis l'article mentionne de jolies perles :«On notera au final les baisses progressives de TDP que l'on avait pu observer en charge, le 2600K proposant encore une consommation basse, inférieure même au 6700K avec un TDP identique»
Le 2600K étant le grand ancêtre du sémillant actuel 6700K... Et comme on y va autant confondre consommation et TDP hein.
Ok, la definition du TDP bidouillée par Intel n'est certainement plus comparable d'une génération a l'autre, surtout avec la pantalonnade historique d'un Intel pris les doigts dans la confiture avec Haswell sur le sujet, mais la l'auteur passe sous silence ce fait. ;)

Bon quand meme, l'auteur rappelle que : «La consommation de la carte mère a significativement diminué également. Le nombre de "chipsets" a été réduit avec la disparition des "northbridges" (les puces qui intégraient le contrôleur mémoire et le contrôleur PCI Express, désormais intégrés dans le processeur) mais surtout une réduction de la consommation des chipsets restants (par coup d'optimisations, et de finesse de gravure améliorée).»

Enfin bref toujours égale a toi même dans tes assertions péremptoire, tes démonstrations approximatives et bancales, tes citations relues et interprétées a la loupe de tes croyances... tu as des actions chez Intel par hasard?

Bah, je sais meme pas pourquoi je répond a tes inepties dogmatiques et approximatives, autant parler a un mur.

avatar fte 01/09/2017 - 08:11 via iGeneration pour iOS

@C1rc3@0rc

"autant parler a un mur."

Ah oui, ça je connais. 😎

avatar SartMatt 01/09/2017 - 10:44

"ah toujours a insulter ceux qui n'adoptent pas tes dogmes fondamentalistes surannés je vois."
Ah, je t'ai insulté ? J'ai juste dit que tu t'améliores pas, c'est tout. Tes propos le prouvent, puisque tu persistes à colporter des croyances, sans la moindre preuve, alors que tous les tests sérieux les infirment plus que largement.

"Et confondre efficacité énergétique et réduction du gaspillage électrique, il faut quand même le faire."
Et c'est quoi la différence entre efficacité énergétique et réduction du gaspillage électrique, histoire que je rigole ? L'efficacité, c'est bien ce qui réduit la gaspillage jusqu'à preuve du contraire...

De plus, tu as bien parlé de performance énergétique, et pas de "gaspillage électrique".

"Et puis ta lecture partiale et dogmatique filtre meme ce qui est ecrit dans l'article que tu cites en pseudo-reference «Il est fascinant de voir à quel point nous avons progressés sur ce point ces dernières années où l'on a presque divisé par trois la consommation au repos entre un Core 2 Extreme et un 7700K !»"
En quoi j'ai filtré ce point ? Ce point abonde au contraire dans mon sens ! Alors que tu persiste à prétendre que la performance énergétique des CPU x86 n'a pas progressé depuis des décennies, cet article de hardware.fr montre dans les tests en charge qu'elle a été multiplié par au minimum 4, et cette phrase prouve aussi qu'elle a été multipliée par 3 en faible charge. Et ce en à peine dix ans, alors ta prétendue stagnation sur plusieurs décennies.

"Ah oui tu as aussi oublié de mentionner le nom complet du Core 2 QX9770 que tu qualitfies de le premier quad grand public d'Intel c'est en fait Core 2 Extreme QX9770, donc le summum de la puissance pour hardcore gamer et overcloker furieux, sans se preoccuper de la consommation hein, m'enfin bon de ta part ce genre d’imprécision est courant. In the great x86 I trust ;)"
Désolé, mais le QX9770 était surtout le summum de l'efficacité à l'époque, parce que c'était l'une des premières puces Penryn (désolé effectivement je me suis trompé sur un point, ce n'était pas le premier quad core grand public, il y avait eu le QX6770 avant). Quand à l'overclocking, je ne vois pas ce qu'il vient faire là dedans : oui, l'oc baisse l'efficacité energétique quand on le pratique, mais H.fr a bien entendu testé le CPU SANS l'overclocker.

Mais bon, on peut aussi comparer le i5-750 et le i5-7500 si tu préfères. Là on est bien dans les mêmes gammes. Et on fait x2.5 en mono thread, x2.8 en pleine charge. C'est toujours infiniement mieux que ta prétendue stagnation sur plusieurs décennies... Et je te ferait pas l'affront de te sortir les données de performances

Désolé, je sais que ça doit te faire très mal, mais les faits sont absolument indéniables à la lecture de cette article : pendant les dix dernières années, les CPU x86 ont connu une croissance importante de leur efficacité energétique, et ce aussi bien chez Intel que chez AMD.

"Et puis l'article mentionne de jolies perles :«On notera au final les baisses progressives de TDP que l'on avait pu observer en charge, le 2600K proposant encore une consommation basse, inférieure même au 6700K avec un TDP identique»
Le 2600K étant le grand ancêtre du sémillant actuel 6700K... Et comme on y va autant confondre consommation et TDP hein."
Le 2600K consomme moins que le 6700K à pleine charge, oui. Mais comme il est moins performant, ça ne l'empêche pas d'avoir une efficacité énergétique moindre. Quand à la confusion entre TDP et consommation, je ne vois pas ou H.fr la fait, au contraire, ils montrent justement que le TDP n'est pas directement corrélé à la consommation (ce qui a toujours été le cas).

"Bon quand meme, l'auteur rappelle que : «La consommation de la carte mère a significativement diminué également. Le nombre de "chipsets" a été réduit avec la disparition des "northbridges" (les puces qui intégraient le contrôleur mémoire et le contrôleur PCI Express, désormais intégrés dans le processeur) mais surtout une réduction de la consommation des chipsets restants (par coup d'optimisations, et de finesse de gravure améliorée).»"
Mauvaise foi quand tu nous tiens... Tu crois vraiment que quand on multiplie l'efficacité énergétique par QUATRE à SEPT le rôle du chipset dans l'affaire est significatif ?

Accessoirement, toi qui a été si prompt à m'accuser de "lecture partiale", je te rappelle ce point de l'article : "pour terminer nous calculons l'efficacité énergétique des processeurs en croisant les performances avec la consommation ATX12V pour isoler les CPU".

Donc le calcul de l'efficacité énergétique a bien été fait pour le CPU seul, SANS PRENDRE EN COMPTE LES PROGRÈS RÉALISÉS SUR LES AUTRES ÉLÉMENTS DE LA MACHINE !

Ainsi, entre le i5-750 et le i7-7740K, l'efficacité énergétique à pleine charge est multipliée par

"Enfin bref toujours égale a toi même dans tes assertions péremptoire, tes démonstrations approximatives et bancales"
Contrairement à toi, j'étaye mes propos par des sources dont la qualité est largement reconnu. Et toi, qui débite tes croyances en les présentant comme des faits, sans jamais citer la moindre source pour les étayer, tu oses qualifier mes propos d'assertions péremptoire et de démonstrations approximatives ? C'est l'hôpital qui se fout de la charité là... Tu n'as définitivement pas changé depuis la période où tu sévissais sur le site d'en face...

Pages