Dell XPS 13, le concurrent du MacBook Pro 13" passe en "Kaby Lake Refresh"

Florian Innocente |

Les MacBook Pro 13" avec processeurs "Kaby Lake" (7e génération) lancés en juin sentent encore l'odeur du neuf que la concurrence prépare la rentrée avec des modèles équipés en Kaby Lake de 8e génération. C'est le cas de Dell avec son XPS 13.

Dell XPS 13

Il embarque un processeur appartenant à la famille dite "Kaby Lake Refresh", plus puissante grâce à quatre cœurs physiques au lieu de deux (l'Hyperthreading est toujours au menu, pour aller jusqu'à 8 cœurs logiques avec des applications de modélisation 3D par exemple) et une puce graphique plus récente. Intel avance un gain en rapidité de 25 % lorsque les 4 cœurs fonctionnent et jusqu'à 40 % dans le meilleur des cas.

Chez Apple, ces Kaby Lake aux épaules plus carrées ont vocation à équiper les MacBook 13" dépourvus de la Touch Bar. Une configuration qui utilise aujourd'hui les références 7360U et 7660U.

Le 13" avec Touch Bar et les 15" emploient pour leur part des Kaby Lake pour lesquels Intel n'a pas encore annoncé la version boostée (lire Intel lance Kaby Lake refresh, une partie de sa 8e génération de processeurs).

crédit : AnandTech

Dell en fait profiter plusieurs de ses portables dont cet XPS 13" (Core i7 Quad, USB 3, Thunderbolt 3, lecteur SD), pour lequel le texan revendique un gain de 44 % en vitesse avec les 4 cœurs sollicités. Dans son argumentaire auprès des médias il l'oppose à tous les portables actuels d'Apple sauf les 15"

L'autonomie du XPS 13 est annoncée à 22h 21min avec des applications bureautique, 13h 21min avec le navigateur Edge ou encore 13h 31min avec Netflix. Des valeurs très flatteuses mais qu'il faut tempérer. Elles ne s'appliquent qu'à la configuration avec écran Full HD et Core i3 de la (désormais précédente) 7e génération. Avec le modèle QHD+ (3 200 x 1 800) et Core i5, de 7e génération toujours, on descend brutalement à respectivement 13h 15min, 8h 30min et 9h 30min.

En clair, Dell ne communique pas pour le moment sur ce que l'on peut espérer avec les même processeurs de huitième génération, et encore moins avec ce Core i7 Quad. La première configuration qui en sera équipée débutera à 1 400 $, lancement le 12 septembre. La version Core i5 "Kaby Lake Refresh" est prévue en octobre. En France ces machines sont vendues à partir de 1 300 €.

Quant à Apple, difficile de prévoir son calendrier qui est tributaire de celui d'Intel. La Pomme peut tout à fait réaliser une mise à jour de certains modèles sans tambours ni trompettes mais ce ne serait pas très cohérent avec sa manière de procéder. Il paraît bien plus logique qu'elle attendent qu'Intel dispose de Kaby Lake améliorés pour couvrir, d'un coup, l'ensemble de ses besoins sur les MacBook Pro 13" et 15".


avatar Franck971 | 

Sur le papier l'augmentation des performances semble légère dans la mesure ou le nombre de cœurs phtisique est doublé !
Curieux de communiquer sur l'autonomie des puces précédente...

avatar ErGo_404 | 

Pour les performances, 44% de performances en plus c'est déjà pas mal, et ça tient probablement du fait que leurs tests ne sont pas complètement parallélisables.

Pour l'autonomie, ce n'est pas curieux car leur gamme qu'ils viennent de sortir contient toujours des modèles avec des processeurs de la génération précédente. Par contre à défaut d'être curieux c'est trompeur, puisque beaucoup choisiront des versions plus consommatrices.

avatar SartMatt | 

Il y a aussi le fait que sur 4 cœurs, ils ont une fréquence plus faible que les anciens sur 2 cœurs.

Donc si on fait abstraction de la légère hausse d'IPC, les performances théoriques n'augmentent de toute façon pas de 100%. Aux fréquences de base et à IPC égal, un 4 cœurs 1.9 GHz n'est que 52% plus rapide qu'un 2 cœurs 2.5 GHz.

avatar Marco787 | 

@ StarMAtt

Tout à fait d'accord, la fréquence est plus basse, donc moins de puissance.

Par ailleurs, la dissipation thermique est un autre facteur clé qui limite la performance, dans ce type de machines ultra compact.

Mais au final, et le point clé, est que pour une fois, une nouvelle génération apporte des gains substantiels, et bien au delà des environ 7% des itérations précédentes constatés au cours des dernières années.

avatar C1rc3@0rc | 

@Marco787

« la fréquence est plus basse, donc moins de puissance.

Par ailleurs, la dissipation thermique est un autre facteur clé qui limite la performance, dans ce type de machines ultra compactes.»

C'est pas tout a fait ça, il faut plutôt parler de vitesse d’exécution plutôt que de puissance.
Si le soft est tres parallélisable (et que l’exécution en parallèle a ete bien programmée...) plus on multiplie les unités de traitement, plus la puissance augmente...
Par contre si le soft est peu parallélisable, ce qui est le cas de la plupart des programmes sur PC, la puissance repose sur la seule vitesse d'execution d'un core, et le fait d'en avoir plusieurs a gerer peut a l'inverse sérieusement dégrader les performances.

mais il faut aussi considérer un autre facteur...
Ce principe du multicore a ete elaboré pour reduire la consommation et la production thermique (par principe de sous cadençage et sous utilisation), pas pour augmenter les performances.

L'architecture choisie et tres efficace comme moyen de marger a mort, mais est une ineptie en terme de puissance. Les core doivent se partager la RAM et la majorité des circuits, ce qui implique des attentes, des interblocage, des controles pour eviter les catastrophe (genre un core qui ecrit dans la zone de RAM d'un autre,...) et donc il faut que les core soient sous le controle d'un ordonanceur unique, et cela degrade a la fois la performance en séquentiel mais plus encore en parallèle.

L'idee c'est qu'a moins de traitements intensifs vraiment parallèles, ça implique que le core sera moins actif et moins longtemps, la charge etant repartie sur 2 ou plus core, et on pourra aussi jouer sur la variation de frequence (a la baisse) pour reduire la consommation, sans que cela affecte la reactivité apparente (au contraire de la vitesse de traitement effective, qui elle est bien degradée).

Pour revenir au processeur en question, on parle de 4 core. Sachant que l'utilisateur va lancer sur un PC plusieurs programmes en meme temps, ouvrir plusieurs onglets dans son/ses navigateurs, il y a de quoi occuper en partie les 4 core, donc on gagne en performances dans la plupart des cas et surtout en réactivité (il va etre rare que les core soient occupés a 100%). Par contre, des qu'on va avoir un traitement intensif en séquentiel, la on va perdre en puissance de maniere sensible... et le "mode turbo" n'est qu'un pis-allé qui limite temporairement la dégradation de puissance.

«Mais au final, et le point clé, est que pour une fois, une nouvelle génération apporte des gains substantiels, et bien au delà des environ 7% des itérations précédentes constatés au cours des dernières années.»

Les iterations precedentes tapaient entre -5% et +5% en moyenne. L'efficacité energetique n'ayant pas progressé depuis tres longtemps, et Intel voulant contenir la consommation et la production thermique, y a pas de miracle, la seule option etait d'optimiser la consommation en fonction de l'usage, donc d'eteindre le plus vite possible le maximum de choses qui ne soient pas utilisées de maniere soutenu. Ceci explique la stagnation, voire la baisse de puissance, depuis plusieurs generation (en fait depuis Sandy bridge si on veut remonter a la precedente amelioration tangible).

avatar SartMatt | 

"Ceci explique la stagnation, voire la baisse de puissance, depuis plusieurs generation (en fait depuis Sandy bridge si on veut remonter a la precedente amelioration tangible)."

Baisse de puissance depuis Sandy Bridge ? Mais décidément, c'est un puit sans fond...

Moyenne applicative du comparatif de Hardware.fr (http://www.hardware.fr/articles/965-2/performances-applicatives.html) :
* 2600K (haut de gamme Sandy Bridge) : 131.9
* 7700K (haut de gamme Kaby Lake) : 212.4

Soit quand même un +60% en 4/5 génération (4 si on ne compte pas la génération Broadwell, quasiment morte née), soit en moyenne +10% par génération sur les cinq dernières génération. C'est certes bien moins que ce qu'on a pu connaître par le passé, mais c'est surtout nettement plus que ce que tu prétends.

avatar C1rc3@0rc | 

Essaye de mettre ton dogmatisme de coté et lire sans interpreter ce que j'ecris: «en fait depuis Sandy bridge si on veut remonter a la precedente amelioration tangible»

que tu traduis avec une mauvaise foi eclatante par: «Baisse de puissance depuis Sandy Bridge»

Je parle bien d'une amelioration, une des dernieres tangibles, pour Sandy Bridge!

Apres je parle d'amelioration de la puissance au niveau de l'architecture de base, pas de l'ajout d'unités de traitement, des coprocesseurs dont meme le modele de fonctionnement est totalement different de celui du x86. Je te mets au defi de demontrer une progression significative au niveau de la puissance du core, qui soit, aller soyons gentils de l'ordre de celle qu'on a connu avec les Ax d'Apple.

Et je remarque que tu es enfin revenu a la raison sur Broadwell meme s'il te reste
encore un peu de chemin pour reconnaitre l'echec cuisant qu'il est.

Quant a la baisse de puissance, elle est bien reelle dans l'usage avec la baisse de frequence de reference mais surtout avec les filouteries que sont les downcloking dynamiques et autres magouilles pour maintenir des TDP - dont la definition a geometrie variable est une specialité d'Intel - et qui sont tous sauf realistes.
Le fait est que ni la frequence des core, ni l'efficacité energetique, ni le nombre d'instructions traitées par cycles n'ont connu d'ameliorations significatives depuis des annees. La seule chose quIntel a vraiment amelioré, c'est le gaspillage electrique en mettant en place des gestions de l'alimentation de plus en plus fines et en sachant eteindre de plus en plus vite le maximum de composants...

avatar SartMatt | 

"Quant a la baisse de puissance, elle est bien reelle dans l'usage"
C'est quoi que tu appelles "dans l'usage" ? Parce que le test applicatif de H.fr, c'est bien un test "dans l'usage", avec des vraies applications que des vraies gens utilisent vraiment dans la vraie vie sur leur ordinateur hein...

Mais puisque tu persistes à prétendre que cette baisse est bien réelle, tu dois être en mesure de fournir des tests et des mesures qui le prouvent, non ? Parce que sinon, tu ne fait que brasser du vent et t'enfoncer dans ton déni de la réalité...

"La seule chose quIntel a vraiment amelioré, c'est le gaspillage electrique en mettant en place des gestions de l'alimentation de plus en plus fines et en sachant eteindre de plus en plus vite le maximum de composants..."
C'est donc une amélioration de l'efficacité énergétique, puisqu'il parviendra à tâche égale à consommer moins d'énergie. C'est la définition de l'efficacité...

avatar Marco787 | 

"il faut plutôt parler de vitesse d’exécution plutôt que de puissance"

Puissance est un autre terme pour vitesse d'exécution... Plus un CPU est rapide à exécuter, plus il est puissant, et inversement. Quelle est votre définition de puissance sinon ?

Quand je parlais de puissance, il ne s'agissait pas de puissance au sens TDP, mais bien puissance de calcul.

"Les iterations precedentes tapaient entre -5% et +5% en moyenne." Pourriez-vous partager vos sources (liens Internet) ? Cela serait très utile.

Pour ne prendre que l'exemple du passage à l'avant dernière génération, le passage à Kaby Lake apporte plutôt aux alentours de 10% (http://www.pcworld.com/article/3127250/hardware/intel-kaby-lake-review-what-optimization-can-do-for-a-14nm-cpu.html).

Et la batterie dure plus longtemps (cf. les détails dans l'article).

"L'efficacité energetique n'ayant pas progressé depuis tres longtemps" De quelles générations s'agit-il ? L'efficacité a bien progressé entre les générations 4 et 7 par exemple.

Votre dernier paragraphe change-t-il mon point clé -qui devrait être le point clé pour les acheteurs : ces processeurs offrent-ils un gain de puissance notable ? (Quand vous parlez de baisse de puissance dans ce dernier paragraphe, vous faites référence à la puissance électrique. Cela n'est bien sur pas mon propos clé. Je ne m'intéresse qu'à la capacité à "mouliner.")

avatar C1rc3@0rc | 

@ Marco787

«Quelle est votre définition de puissance sinon ?»

Ben exactement ce que j'ai ecrit... «Si le soft est tres parallélisable (et que l’exécution en parallèle a ete bien programmée...) plus on multiplie les unités de traitement, plus la puissance augmente...»
je rajoute pour que cela soit explicite: indépendamment de la fréquence par core. Car la vitesse d’exécution c'est hélas trop souvent la fréquence par core, qui se fait passer pour la puissance de traitement.

Pour te donner un exemple concret:
- soit un traitement qui comprend 10 taches.
- chaque tache est executable de maniere independante et ne necessite pas d'attendre la fin d'un autre tache.
- chaque tache necessite entre 5 et 10 minutes de traitement par un processeur de reference, dont la frequence vaut 1.

Donc on a un temps d'execution de reference qui sera alors situé entre 50 et 100 minutes, disons 70 minutes dans le cas choisi.

On prend 2 processeurs:
- un sequentiel dont la frequence vaut 2
- un parallèle avec 15 core dont la fréquence vaut 1.

Temps de traitement:
- processeur sequentiel a frequence 2 => ~ 35 minutes
- processeur parallele a frequence 1 => ~ 10 minutes

Le multiprocesseur est donc 3.5 fois plus puissant que le processeur sequenciel qui a une frequence pourtant 2 fois supérieure... Le processeur sequentiel a beau courir 2 fois plus vite, il reste 3,5 fois plus lent que le proc parallele.

pour que le processeur sequentiel depasse en puissance (la vitesse de traitement dans cette situation) le multiprocesseur il faudrait que sa frequence soit superieures a 7.
Mais le pire c'est que la puissance du multriprocesseur croit bien plus vite si on rajoute des core et que l'on augmente leur frequence... Si on augmente la frequence du processeur parallele a 3, il faudrait que le processeur sequentiel lui depasse une frequence de 20 pour tenir la cadence...

Pire encore, si l'ensemble des taches necessite 10 minutes... le temps d'execution par le processeur parallele a frequence 1 sera toujours de 10 minutes, alors que le processeur sequentiel a frequence 2 mettra 50 minutes...

Cela est theorique bien sure, en pratique il y a un ensemble d'elements qui compliquent le calcul, mais dans les faits, sur un traitement parallelisable, un processeur parallele est plus infiniment plus puissant qu'un processeur sequentiel.

Par contre, le rapport s'inverse sur un traitement sequentiel. A frequence egale, le multiprocesseur sera plus lent et consommera plus que le processeur séquentiel. C'est pour cela que dans le cas des PC et des stations de travail, dans l'ecrasante majorité des cas il vaut mieux avoir un 4-core a 4Ghz qu'un 10 core a 2 Ghz...

Et le probleme avec les architectures comme le x86, a fur et a mesure qu'on augmente la frequence, on fait exploser le consommation electrique et la production thermique. A l'epoque des Pentium 3 et 4 le x86 a atteint les limites de fonctionnement en refroidissement conventionnel avec la fréquence des 4Ghz. AMD a alors augmenté l'efficacité par cycle en virtualisant le x86 sur un moteur RISC, mais les limites ont vite ete atteinte. Apres c'est la multiplication des core qui a alors pris la releve, mais les soft du PC (tel que programmés aujourd'hui) ne permettent pas un fort parallélisme, donc le maximum de benefice a ete atteint avec 4 core en moyenne et 8 core dans les cas les plus rares.

Reste donc 2 options pour augmenter la puissance
- changer de matériaux (pas de résistance électrique...) ou trouver un système de refroidissement défiant les lois de la physique
- augmenter le nombre d’opération par cycle (le Graal, dont le x86 est incapable)
- changer d'architecture (on voit l'efficacité du GPGPU par exemple).

avatar SartMatt | 

"C'est pour cela que dans le cas des PC et des stations de travail, dans l'ecrasante majorité des cas il vaut mieux avoir un 4-core a 4Ghz qu'un 10 core a 2 Ghz..."
Ça c'est si tu pars sur le principe qu'un CPU fonctionne à fréquence fixe... Et c'est exactement pour répondre à cette problématique que tous les fabriquants de CPU ont aujourd'hui un "turbo" (y compris les CPU ARM, même si souvent les fabricants, Qualcomm en tête, ne communiquent que sur cette fréquence turbo, qui n'est en fait jamais atteinte quand tous les cœurs sont en charge...).

Prenons par exemple le Core i7-7920HQ 4C à 3.1 GHz et le Core i7-7567U 2C à 3.5 GHz. C'est vrai que si on ne raisonne que sur la fréquence de base, le second devrait être sensiblement rapide quand il n'y a qu'un ou deux threads.

Sauf que le i7-7920HQ avec son turbo pourra monter jusqu'à 4.1 GHz sur un seul cœur et 3.9 GHz sur deux cœurs, alors que le 7567U est limité à 3.9 GHz sur deux cœurs et 4 GHz sur un cœur. Résultat des courses, même avec une charge avec seulement un ou deux "gros" threads, le i7-7920HQ ne sera pas plus lent que le 7567U, voire même légèrement plus rapide, d'autant que son enveloppe thermique plus large lui permettra d'exploiter plus facilement ces fréquences turbo.

"Et le probleme avec les architectures comme le x86, a fur et a mesure qu'on augmente la frequence, on fait exploser le consommation electrique et la production thermique."
Exactement comme n'importe quelle architecture... Il n'existe pas d'architecture capable d'aller à l'encontre des lois de la physique...

"AMD a alors augmenté l'efficacité par cycle en virtualisant le x86 sur un moteur RISC, mais les limites ont vite ete atteinte."
Et ça fait surtout trèèèèès longtemps qu'en interne les CPU x86 ne sont plus RISC.
Et les CPU RISC efficaces ne le sont plus non plus en interne.
Tous ont adopté en interne des architectures qui se classeraient plutôt dans le VLIW.

"- changer d'architecture (on voit l'efficacité du GPGPU par exemple)."
Forcément, une architecture spécialisée est toujours plus efficace dans les tâches pour lesquelles elle est spécialisée (et le GPGPU n'est d'ailleurs pas le summum, un ASIC peut encore atteindre une efficacité largement supérieure). Mais par définition, une architecture spécialisée n'est efficace que pour les tâches pour lesquelles elle est spécialisée... En ce sens, le "GP" de GPU est largement usurpé. C'est du "general purpose" dans le sens où on lui fait faire des traitements qui ne sont pas graphiques, mais ça n'en est pas du tout dans le sens où elle pourrait faire efficacement n'importe quel type de traitement, comme un CPU. Un GPU n'est efficace que pour faire des choses qui "ressemblent" à ce qu'on fait dans le domaine graphique.

avatar Marco787 | 

@C1rc3@0rc

Je vous remercie pour vos explications : votre propos m'est plus clair.

Mais il me semble que vos réponses ne sont pas tout à fait liées à mon sujet, ou pour être plus spécifique, ne contredisent pas mes propos, mais les confirment.

Vous indiquez : “Mais le pire c'est que la puissance du multriprocesseur croit bien plus vite si on rajoute des core et que l'on augmente leur frequence”

En d’autres termes, une fois cette opération réalisée pour aboutir à un CPU donné (ce qui est le sujet), un abaissement de x% de sa fréquence -quelque soit la ou les raison(s)- entraine une réduction de sa puissance. L’inverse serait difficilement possible il me semble. Tel est mon propos.

P.S. Concernant vos explications plus générales, une simplification est faite il me semble -chaque unité de traitement est identique entre les processeurs-, ce qui permet d’affirmer :

"Si le soft est tres parallélisable (et que l’exécution en parallèle a ete bien programmée...) plus on multiplie les unités de traitement, plus la puissance augmente...»"

Le nombre et le type d'instructions gérés par cycle et par unité de traitement peut varier d’un processeur à un autre.

avatar fte | 

ça c'est le côté sympa des PC, on ne se pose jamais la question de combien de temps vont mettre les constructeurs pour mettre à jour leurs gammes...

avatar MacOSXI | 

Quand je pense que le MBP13 TB me tient à peine 5h en utilisation normale (8h avec la même utilisation sur un MBP13 Retina)... Ça pique. Et d’après Apple c’est tout à faire normal, la batterie a été vérifiée et les logs analysés par l'équipe de Craig en personne... ?

avatar ErGo_404 | 

Après entre les autonomies annoncées et les autonomies réelles...
Quand on travaille sur des logiciels lourds (type ide pour développer, photoshop/lightroom, ou même un navigateur avec plein d'onglets) je suis à peu près sûr qu'on est plus proche des 5h sur ce dell...

avatar MacOSXI | 

Ah ça c'est sûr. Le problème c'est que sur les derniers MacBook Pro dès que t'utilises un peu la machine tu tombes à 5 heures. Il suffit d'un peu de Safari, Mail et une vidéo et là c'est le drame, pourtant on ne peut pas dire que ça soit une utilisation très lourde.

Et alors quand on lance Photoshop, Final Cut Pro X et Logic Pro X ça tape plus dans les deux heures. C'est carrément anémique et pire que mon 1er MacBook Pro en 2009 ?. Je suis quasiment certains que le Dell XPS fait mieux de ça (enfin j'espère pour eux car c'est difficile de faire pire en fait ?).

Et encore une fois ce n'est pas un problème de machine, elle a été entièrement analysée et elle répond aux exigences d'Apple (qui ont bien baissées visiblement ! ).

avatar melaure | 

C'est faible par rapport à tous les PowerBook/MacBook Pro Alu qui avait 5 heures d'autonomie annoncé, les tenaient quasiment en bureautique, et te faisaient deux heures sous UnrealTournament/Quake ...

Dommage Apple avait tendance à ne pas gonfler les chiffres avant, donc si maintenant à l'heure Cook, on annonce des durées avec une machine où tu utilises juste TextEdit ... et en plus tu n'as plus de disque dur physique et lecteur optique, plus consommateur. Ca craint :(

avatar MacOSXI | 

Clairement...

J'ai contacté Craig à ce sujet et il m'a envoyé un mail assez hallucinant. "Expliquant" que dans les machines modernes l'autonomie est très aléatoire (processeurs qui changent de fréquence constamment, etc) et qu'ils ne pouvaient rien y faire. Que de leur côté, Apple a un test Safari standardisé et qu'il s'en tenait à obtenir 10h sur ce test... ?

Autant dire que le test est ultra optimisé et pas du tout représentatif d'une utilisation web standard. Et il a ajouté qu'un ordinateur pro avec une autonomie de 2 à 5h ça ne le choquait pas. Bref, je crains qu'ils ne soient totalement à la ramasse et qu'ils n'assument pas d'avoir totalement sous-estimée la capacité de batterie des nouveaux MacBook Pro.

Et oui, en divisant la capacité presque par 2 par rapport à la génération précédente il ne faut pas s'attendre à un miracle. Certes les processeurs consomment moins, mais seulement en charge très faible... Idem avec l'écran. Ils ont réussi à sauver la mise dans leur test avec des optimisations dédiées, mais dès qu'on utilise vraiment l'ordi c'est le drame ?

Et le pire c'est qu'il n'y a rien à faire, c'est "normal"...

Je pense que la moindre des choses du côté d'Apple serait de ne pas mentir aux clients et être transparent sur l'autonomie réelle des machines. Ce nouveau MacBook Pro affiche une autonomie "jusqu'à 10h", comme le retina avant lui. On pourrait donc penser que les deux machines présentent les mêmes performances mais ce n'est pas du tout le cas. Il y a clairement tromperie.

avatar melaure | 

Heureusement qu'il y a des tests utilisateurs et des tests de sites spécialisés.

D'ailleurs il n'y a pas longtemps j'ai vu un test assez large sur le monde des portables (Tom's il me semble), et les portables Apple étaient plutôt dans le milieu du panier niveau autonomie, alors qu'ils étaient toujours au dessus autrefois. A l'époque du Titanium (j'avais un 550), on était à 04h30 réelle quand les meilleurs PC étaient à 02h00/03h00 ... comme quoi le matos PC a bien changé, il ne manque qu'OS X en fait ! :D

avatar lmouillart | 

"on était à 04h30 réelle quand les meilleurs PC étaient à 02h00/03h00 ... comme quoi le matos PC a bien changé, il ne manque qu'OS X en fait ! :D" hors Thinkpad alors.

avatar C1rc3@0rc | 

@MacOSXI

On est sur le meme probleme que la bagnole avec les spec de consommation relevant de la plus grande fantaisie, mais qui sont toujours données selon des bench tres etablis...

Comme tu le dis le probleme est mathematique: avec la meme efficacité energetique, si on divise la puissance de la batterie, on divise forcement l'autonomie d'autant. Et le fait est que le x86 a pas bougé au niveau performance energetique depuis des décennies et que de part
sa conception il est deja pas bon a la base.

Apres Intel a fait un vrai travail d’orfèvre en terme de gestion d'alimentation et sous-cadençage dynamique... les dernieres generations de proc pour mobile savent exploiter les moindres opportunités pour ne rien foutre et donc ne rien consommer, mais ça permet de gagner que tres peu en autonomie (en fait y a moins de gaspillage, mais pas plus d'efficacité)

L'autre gros probleme sur les MBpro touch bar, c'est ... la touch bar. Ca bouffe de l'energie inutilement. Pas des masse, certes, mais sur une machine deja au bord de l'asphixie c'est enorme comme impact.

Il reste plus a esperer que cet automne, la sonnette ait suffisament sonné et qu'Apple sorte des Macbook Pro "pro" sans touch bar et avec une meilleure batterie.

avatar SartMatt | 

"Et le fait est que le x86 a pas bougé au niveau performance energetique depuis des décennies et que de part"
Décidément, tu t'améliores pas...

Hardware.fr a justement refait récemment un comparatif en ressortant des CPU des 10 dernières années (donc à peine UNE décennie, même pas "des décennies").

Entre le Core 2 QX9770, qui était le premier quad grand public d'Intel, en 2008 et le Core i7-7740K qui est le quad core le plus performant d'Intel aujourd'hui, l'efficacité énergétique sur un thread a été multipliée par... 7.7 . Rien que ça.
Et en poussant le CPU a ses performances maximale, elle est multipliée par 4.4.
Si on compare ce vénérable ancêtre avec le CPU Intel le plus efficace de ce comparatif (le Pentium G4560), l'efficacité sur 1 thread a été multipliée par 10.5, et l'efficacité à 100% de charge a été multipliée par 6.1.

http://www.hardware.fr/articles/965-4/consommation-efficacite-energetique.html

Mais bon, je suppose que ça t'empêchera pas à continuer de colporter tes croyances, il y aura hélas toujours des cons pour te croire sur parole...

avatar C1rc3@0rc | 

@SartMatt

ah toujours a insulter ceux qui n'adoptent pas tes dogmes fondamentalistes surannés je vois.

Et confondre efficacité énergétique et réduction du gaspillage électrique, il faut quand même le faire.

Et puis ta lecture partiale et dogmatique filtre meme ce qui est ecrit dans l'article que tu cites en pseudo-reference «Il est fascinant de voir à quel point nous avons progressés sur ce point ces dernières années où l'on a presque divisé par trois la consommation au repos entre un Core 2 Extreme et un 7700K

Ah ça je suis bien d'accord, les progres au niveau de la reduction du gaspillage electrique releve de l'orfevrerie... Intel a reussi a faire des processeurs qui consomment 3 fois moins quand ils n'ont rien a faire!
Pour ce qui est de l'efficacité énergétique, la par contre... ben on regarde chez ARM par exemple...

Ah oui tu as aussi oublié de mentionner le nom complet du Core 2 QX9770 que tu qualitfies de le premier quad grand public d'Intel c'est en fait Core 2 Extreme QX9770, donc le summum de la puissance pour hardcore gamer et overcloker furieux, sans se preoccuper de la consommation hein, m'enfin bon de ta part ce genre d’imprécision est courant. In the great x86 I trust ;)

Et puis l'article mentionne de jolies perles :«On notera au final les baisses progressives de TDP que l'on avait pu observer en charge, le 2600K proposant encore une consommation basse, inférieure même au 6700K avec un TDP identique»
Le 2600K étant le grand ancêtre du sémillant actuel 6700K... Et comme on y va autant confondre consommation et TDP hein.
Ok, la definition du TDP bidouillée par Intel n'est certainement plus comparable d'une génération a l'autre, surtout avec la pantalonnade historique d'un Intel pris les doigts dans la confiture avec Haswell sur le sujet, mais la l'auteur passe sous silence ce fait. ;)

Bon quand meme, l'auteur rappelle que : «La consommation de la carte mère a significativement diminué également. Le nombre de "chipsets" a été réduit avec la disparition des "northbridges" (les puces qui intégraient le contrôleur mémoire et le contrôleur PCI Express, désormais intégrés dans le processeur) mais surtout une réduction de la consommation des chipsets restants (par coup d'optimisations, et de finesse de gravure améliorée).»

Enfin bref toujours égale a toi même dans tes assertions péremptoire, tes démonstrations approximatives et bancales, tes citations relues et interprétées a la loupe de tes croyances... tu as des actions chez Intel par hasard?

Bah, je sais meme pas pourquoi je répond a tes inepties dogmatiques et approximatives, autant parler a un mur.

avatar fte | 

@C1rc3@0rc

"autant parler a un mur."

Ah oui, ça je connais. ?

avatar SartMatt | 

"ah toujours a insulter ceux qui n'adoptent pas tes dogmes fondamentalistes surannés je vois."
Ah, je t'ai insulté ? J'ai juste dit que tu t'améliores pas, c'est tout. Tes propos le prouvent, puisque tu persistes à colporter des croyances, sans la moindre preuve, alors que tous les tests sérieux les infirment plus que largement.

"Et confondre efficacité énergétique et réduction du gaspillage électrique, il faut quand même le faire."
Et c'est quoi la différence entre efficacité énergétique et réduction du gaspillage électrique, histoire que je rigole ? L'efficacité, c'est bien ce qui réduit la gaspillage jusqu'à preuve du contraire...

De plus, tu as bien parlé de performance énergétique, et pas de "gaspillage électrique".

"Et puis ta lecture partiale et dogmatique filtre meme ce qui est ecrit dans l'article que tu cites en pseudo-reference «Il est fascinant de voir à quel point nous avons progressés sur ce point ces dernières années où l'on a presque divisé par trois la consommation au repos entre un Core 2 Extreme et un 7700K !»"
En quoi j'ai filtré ce point ? Ce point abonde au contraire dans mon sens ! Alors que tu persiste à prétendre que la performance énergétique des CPU x86 n'a pas progressé depuis des décennies, cet article de hardware.fr montre dans les tests en charge qu'elle a été multiplié par au minimum 4, et cette phrase prouve aussi qu'elle a été multipliée par 3 en faible charge. Et ce en à peine dix ans, alors ta prétendue stagnation sur plusieurs décennies.

"Ah oui tu as aussi oublié de mentionner le nom complet du Core 2 QX9770 que tu qualitfies de le premier quad grand public d'Intel c'est en fait Core 2 Extreme QX9770, donc le summum de la puissance pour hardcore gamer et overcloker furieux, sans se preoccuper de la consommation hein, m'enfin bon de ta part ce genre d’imprécision est courant. In the great x86 I trust ;)"
Désolé, mais le QX9770 était surtout le summum de l'efficacité à l'époque, parce que c'était l'une des premières puces Penryn (désolé effectivement je me suis trompé sur un point, ce n'était pas le premier quad core grand public, il y avait eu le QX6770 avant). Quand à l'overclocking, je ne vois pas ce qu'il vient faire là dedans : oui, l'oc baisse l'efficacité energétique quand on le pratique, mais H.fr a bien entendu testé le CPU SANS l'overclocker.

Mais bon, on peut aussi comparer le i5-750 et le i5-7500 si tu préfères. Là on est bien dans les mêmes gammes. Et on fait x2.5 en mono thread, x2.8 en pleine charge. C'est toujours infiniement mieux que ta prétendue stagnation sur plusieurs décennies... Et je te ferait pas l'affront de te sortir les données de performances

Désolé, je sais que ça doit te faire très mal, mais les faits sont absolument indéniables à la lecture de cette article : pendant les dix dernières années, les CPU x86 ont connu une croissance importante de leur efficacité energétique, et ce aussi bien chez Intel que chez AMD.

"Et puis l'article mentionne de jolies perles :«On notera au final les baisses progressives de TDP que l'on avait pu observer en charge, le 2600K proposant encore une consommation basse, inférieure même au 6700K avec un TDP identique»
Le 2600K étant le grand ancêtre du sémillant actuel 6700K... Et comme on y va autant confondre consommation et TDP hein."
Le 2600K consomme moins que le 6700K à pleine charge, oui. Mais comme il est moins performant, ça ne l'empêche pas d'avoir une efficacité énergétique moindre. Quand à la confusion entre TDP et consommation, je ne vois pas ou H.fr la fait, au contraire, ils montrent justement que le TDP n'est pas directement corrélé à la consommation (ce qui a toujours été le cas).

"Bon quand meme, l'auteur rappelle que : «La consommation de la carte mère a significativement diminué également. Le nombre de "chipsets" a été réduit avec la disparition des "northbridges" (les puces qui intégraient le contrôleur mémoire et le contrôleur PCI Express, désormais intégrés dans le processeur) mais surtout une réduction de la consommation des chipsets restants (par coup d'optimisations, et de finesse de gravure améliorée).»"
Mauvaise foi quand tu nous tiens... Tu crois vraiment que quand on multiplie l'efficacité énergétique par QUATRE à SEPT le rôle du chipset dans l'affaire est significatif ?

Accessoirement, toi qui a été si prompt à m'accuser de "lecture partiale", je te rappelle ce point de l'article : "pour terminer nous calculons l'efficacité énergétique des processeurs en croisant les performances avec la consommation ATX12V pour isoler les CPU".

Donc le calcul de l'efficacité énergétique a bien été fait pour le CPU seul, SANS PRENDRE EN COMPTE LES PROGRÈS RÉALISÉS SUR LES AUTRES ÉLÉMENTS DE LA MACHINE !

Ainsi, entre le i5-750 et le i7-7740K, l'efficacité énergétique à pleine charge est multipliée par

"Enfin bref toujours égale a toi même dans tes assertions péremptoire, tes démonstrations approximatives et bancales"
Contrairement à toi, j'étaye mes propos par des sources dont la qualité est largement reconnu. Et toi, qui débite tes croyances en les présentant comme des faits, sans jamais citer la moindre source pour les étayer, tu oses qualifier mes propos d'assertions péremptoire et de démonstrations approximatives ? C'est l'hôpital qui se fout de la charité là... Tu n'as définitivement pas changé depuis la période où tu sévissais sur le site d'en face...

avatar Chris66 | 

Vous vous trompez.
J'utilise un XPS core i7 pour faire du développement (Visual Studio / SQL Serveur en local / Photoshop) et ma journée passé tranquillement sans être obligé de me brancher.

avatar Apollo11 | 

Je suis passé d'un MacBook Air de 2012 à un Dell XPS 13 (9360) il y a quelque mois.

Je ne le regrette pas.

avatar melaure | 

hackintoshé ou pas ?

avatar Apollo11 | 

Linuxifié. ;-)

avatar xbill | 

@melaure

Sur une tour , à 100% oui. Pour un portable ... non

avatar Wilthek | 

@Apollo11

C'est pas pareil ?
Le gap aurait été moins grand avec 1 MBP13 2015/2016...

Cela dit, il est vrai qu'ils ont l'air bien ?

L'écran / Retina, même qualité ? (Finesse)

avatar Apollo11 | 

Un Dell XPS n'est pas un Mac. On peut comparer au niveau technique, mais l'extérieur est différent. Pour l'écran 13 pouces, je n'ai pas choisi le "retina", mais le full HD, 1920x1080. Donc pas tactile, mais moins énergivore. Longue durée de batterie. C'est un ultra portable, donc dans la catégorie des MacBook Air, mais avec certaines spécifications de la gamme Pro. La carte graphique, c'est du Intel, par exemple. Mais le processeur Kaby Lake est beaucoup plus performant qu'un MacBook Air, un peu comme un Pro. Bref, pour le rapport qualité/prix, il est excellent. Dans le monde PC, il est constamment cité comme premier de classe dans la catégorie des ultra portables.

avatar Marco787 | 

@ Apollo11

Le XPS 13 (avec l'écran "Retina") est un concurrent direct du MacBook Pro 13 ".

Il a en outre plus de ports et un lecteur SD... (Le MBP 13" n'a pas de carte graphique dédiée non plus, donc cela n'est pas du tout différent.)

Par ailleurs, avec le refresh Intel 8eme génération à venir dans les prochaines semaines, la performance et le rapport qualité / prix du XPS 13 vont fortement s'améliorer et creuser l'écart avec d'autres portables bien plus chers...

avatar Marco787 | 

Quand l'auteur écrit : "Quant à Apple, difficile de prévoir son calendrier qui est tributaire de celui d'Intel."

Mais pour quelle raison Apple serait tributaire d'Intel ?

Les autres fabricants ont bien sortis ou vont prochainement sortir des laptops mis à jour ? Pourquoi Apple ne le pourrait pas, et cela serait en plus de la faute d'Intel ?

En rapport, je ne considère pas que : "Il paraît bien plus logique qu'elle attendent qu'Intel dispose de Kaby Lake améliorés pour couvrir, d'un coup, l'ensemble de ses besoins sur les MacBook Pro 13" et 15"

Les processeurs de 8ème génération vont sortir sur une période assez étalée. Il faudra donc attendre longtemps avant de bénéficier de ce gain de puissance très matériel.

En achetant un MBP 13" maintenant ou à court terme, avec en plus un prix plus élevé que la concurrence, l'acheteur n'obtient qu'une performance bien moindre.

Par ailleurs, Apple a attendu juin pour mettre à jour ses MBP 13" et 15", alors même que les processeurs de 7ème génération étaient disponibles bien avant, et intégrés par les autres fabricants depuis longtemps.

Et tout cela serait logique ?

(Dans le passé, Apple a sorti des versions à jour de MBP 13" avant des 15".)

PS. merci de corriger la faute de conjugaison : qu'elle attende, pas qu'elle attendent.

avatar jimmycactus | 

Du point de vue de la cohérence de gamme, ça me parait compliqué de faire un refresh maintenant. en passant la 8ème gen sur les 13 pouces non TB avec du quad core, on aurait une machine significativement plus puissante que le 13 TB et qui commence à se rapprocher des 15 pouces (hors impact GPU dédié) => ca rend compliqué de vendre une machine 13 TB qui en plus semble moins équilibrée.

Bref, tant que Intel n'a pas updaté toute sa gamme, c'est un peu compliqué de faire jumper juste un élément de la gamme MBP.

Ca me semble plus simple pour Dell, ou les écarts de prix entre un xps 13 haut de gamme et un xps 15 haut de gamme sont plus limités qu'entre un MBP 13 non touch bar et un 15 TB. ajoute à ça le fait que le xps embarque une GTX 1050 qui est nettement supérieure aux radeon, et que de toute façon les fabricants de pc se focalisent moins sur la cohérence de gamme....

avatar Marco787 | 

Cela est tout à fait mon point (cf. mon autre commentaire plus bas), avec la raison réelle qui est le focus unique d'Apple sur des marges élevées, une approche sans équivalent dans l'industrie.

;-)

Votre commentaire sur Dell le confirme d'ailleurs.

Le problème est que cela génère de la frustration (je viens d'acheter un MBP 13" par exemple, que je peux encore retourner.)

avatar vrts | 

Apple fait sa marge en proposant du hardware "vieux" de 6 mois à 1 an. C'est leur business c'est tout.
Sauf pour quelques produits vitrine, pour faire croire aux gens novice en informatique qu'Apple c'est le top de la puissance brute (et là tu sent la facture passer).

avatar Marco787 | 

Même avec du matériel tout récent (= non obsolète), ils font des marges très élevés (iPhone ou MacBook Pro 15" par exemple).

avatar Bigdidou | 

@jimmycactus

« ajoute à ça le fait que le xps embarque une GTX 1050 qui est nettement supérieure aux radeon »
Ça ne veut rien dire. Tu parles d’une nvidia précise que tu compares « aux radeon », c’est absurde.
Et si tu compares la gtx 1050 à la radeon qui équipe le mbp 15’, ton affirmation est totalement fausse.

Attiré par le xps 15’, j’ai écumé le web, selon les tests comparant la radeon pro 560 et la gtx 1050 c’est tantôt l’une tantôt l’autre qui est un peu devant, et elles sont décrites comme globalement équivalentes.

Par contre, l’écran du xps 15’ est souvent décrit comme décevant par rapport à celui du 13’ et très inférieur à celui du mbp.
Du coup, ça me refroidit un peu.
Il y a moyen de le voir quelque part en vrai, ce xps 15 ?

avatar Marco787 | 

@ Bigdidou

« ajoute à ça le fait que le xps embarque une GTX 1050 qui est nettement supérieure aux radeon »
Ça ne veut rien dire.
Tu parles d’une nvidia précise que tu compares « aux radeon » c’est absurde."

Il me semble que les Radeon sont celles des MBP (donc Pro 460 et 455), puisque nous parons des MBP.

Par ailleurs, une autre approche du sujet est le ratio prix / performance. Les XPS 15" sont moins chers que les MBP 15", pour une performance identique ou supérieure (selon les options). Les XPS peuvent par exemple être équipé jusqu'à 32 Go de mémoire (et au prix du marché).

Même si les perf sont au global identiques, un point de différence à explorer doit être la consommation : Nvidia est connu pour être bien plus efficace en termes de performance par watt qu'AMD. Cela se vérifié par exemple avec leurs dernières cartes Vega.

J'ai aussi beaucoup regarder les XPS et Alienware (pour le jeux) sur le site Dell et YouTube. Malheureusement, à moins de connaitre une personne qui en possède, impossible de les voir en vrai (Dell ne vend que par Internet).

Après, vous pouvez toujours acheter, sachant que vous avez 14 jours pour vous faire rembourser à 100%.

avatar Bigdidou | 

@Marco787

« Même si les perf sont au global identiques, un point de différence à explorer doit être la consommation : Nvidia est connu pour être bien plus efficace en termes de performance par watt qu'AMD. Cela se vérifié par exemple avec leurs dernières cartes Vega. »
Certes, mais nous sommes donc d’accord que la nvidia 1050 n’est pas « nettement supérieure » aux radeon du mbp ;)

Les Alienware, j’en ai acheté un à ma fille.
C’est quand même des gros machins pas très portables, avec une faible autonomie (forcément, avec une gtx 1080 ou 1070 pour les moins lotis…)
D’autant plus gros, que, en France, pour avoir un écran 4k (uhd c’est ça ?), il n’y a que les 17’ qui sont des tanks.
Accessoirement, celui de ma fille n’a pas supporté la canicule parisienne et part au sav 13 mois après son achat .

avatar Marco787 | 

Tout à fait d'accord avec vous sur l'écart de perf ; je souhaitais simplement apporter un élément utile dans votre recherche d'ordi et plus généralement en termes de comparaison.

Merci pour votre commentaire très utile sur l'Alienware, et cela est assez décevant dans la mesure où ils sont plus chers que d'autres PC et Dell est censé être plus sérieux (ils vendent beaucoup aux entreprises par exemple).

Concernant le bruit : est-ce gênant en mode jeux ? Il semblerait que l'ordi se fasse entendre.

En plus du poids de la bête, il faut inclure le poids de l'adaptateur secteur, qui est assez important (1 kg ou presque), et que Dell se garde de préciser sur son site...

(J'en commandé à l'instant un Alienware 13, pour voir en vrai...)

Concernant la robustesse des Dell, il apparait que la pâte qui permet la dissipation thermique du CPU -élément crucial- est appliquée sans trop de soin et le hasard peut mal faire les choses. C'est un peu la roulette russe et une mauvaise application entraine des problèmes à terme, ce qui est peut être le cas de votre fille.

(Certains ré-appliquent la pate thermique pour s'assurer que ce n'est pas un problème, mais encore faut-il le savoir et je ne pense que cela soit évident à faire...)

avatar Marco787 | 

"Dans son argumentaire auprès des médias il l'oppose à tous les portables actuels d'Apple sauf les 15""

Pour quelle raison Dell devrait parler des MBP 15" ?

Il s'agit d'une gamme différente qui n'est pas concurrente des XPS 13", mais des XPS 15". Les deux ont d'ailleurs accès au même processeur, le 7700HQ.

Il est donc totalement logique que Dell ne cite pas les MBP 15".

avatar Marco787 | 

La vraie raison pour laquelle Apple ne met à jour ses MBP 13" que le plus tard ?

Pour moi cela est clair : l'appât du gain, immense chez Apple (les preuves sont abondantes).

Si le MBP 13" était mis à jour maintenant, la puissance augmenterait jusqu'à 44% (selon Intel, à vérifier). Limitons le gain à 40%. L'écart de puissance (CPU) par rapport au 15" passerait d'environ 65% (en se basant que sur le benchmark geekbench), à environ 18% (165/140).

Dans la réalité, les chiffres pourront bien sur dévier, mais sans doute pas de manière à changer la conclusion.

Le 15" a plusieurs inconvénients (de degré divers) par rapport au 13 " :
* le 15" le moins cher est à 2 800 euros, près de 90% plus cher que le moins cher des MBP et 40% plus cher que les MBP 13" avec touch bar. C'est l'inconvénient majeur.
* le 15" est plus lourd, tout comme son chargeur
* le 15" "est plus encombrant, tout comme son chargeur

Et le seul intérêt restant d'un 15" -sa carte graphique dédiée-, qui ne s'applique qu'à certains usages (il s'agit d'une carte d'entrée de gamme, malheureusement, ce qui en limite les usages), est ou sera facilement annulé par l'utilisation de carte graphique externe, déjà possible avec les 13" et encore plus avec High Sierra. Cette approche permet en outre d'utiliser les cartes graphiques les plus puissantes.

Au vu de tous ces facteurs, de nombreux acheteurs se dirigeront vers un 13", ce qui est un problème pour Apple du fait de marges bien plus faibles (il est clair que cela ne coute pas 800 euros par exemple de passer d'un 13" avec touch bar au 15").

(Plutôt que de critiquer Dell et de justifier le comportement d'Apple, c'est plutôt ce type d'analyse que l'auteur aurait du faire.)

avatar MacOSXI | 

Je suis d'accord c'est clairement un choix marketing. Un 13" 4 coeurs affaiblirait considérablement le 15" qui est le gagne pain d'Apple... Tant qu'ils ne seront pas en mesure de compenser sur le 15 avec un processeur 6/8 coeurs, le 13" ne bougera pas, malheureusement.

avatar SartMatt | 

"Limitons le gain à 40%. L'écart de puissance (CPU) par rapport au 15" passerait d'environ 65% (en se basant que sur le benchmark geekbench), à environ 18% (165/140)."
Je pense que tu sous-estimes largement l'écart... Un quad à 1.9 GHz d'un côté, un quad à 2.8 GHz de l'autre... Sachant que l'IPC progresse assez peu avec Kaby Lake refresh, on peut tabler sur un écart de performances plus proche de 50% que de 20%... Soit bien plus que l'écart qu'il y avait entre 13 et 15" jusqu'à 2011, année de sortie du premier MBP quad.

"Et le seul intérêt restant d'un 15" -sa carte graphique dédiée-, qui ne s'applique qu'à certains usages (il s'agit d'une carte d'entrée de gamme, malheureusement, ce qui en limite les usages), est ou sera facilement annulé par l'utilisation de carte graphique externe, déjà possible avec les 13" et encore plus avec High Sierra. Cette approche permet en outre d'utiliser les cartes graphiques les plus puissantes."
Alors d'abord, la carte graphique dédiée n'est pas le seul intérêt d'un 15" par rapport à un 13". L'intérêt premier d'un 15" par rapport à un 13", c'est justement... d'être un 15", c'est-à-dire d'avoir un écran plus grand... Et à mon avis, c'est bien ça le premier critère de choix entre le 13" et le 15", et probablement en second lieu le prix, tout le monde n'ayant pas les moyens de se payer un 15" aux tarifs Apple.

Ensuite, la carte graphique externe, c'est bien joli, mais ça ne peut s'utiliser qu'en mode "fixe", pas question de l'utiliser en mobilité, et même en déplacement c'est compliqué (perso je me verrai pas emmener avec moi un imposant châssis TB avec une carte graphique... je préfère la GTX 1050 intégrée à ma machine, certes moins puissante qu'une carte desktop en TB, mais suffisante pour mes besoins et disponible en mobilité).

avatar Marco787 | 

"Je pense que tu sous-estimes largement l'écart"

Pourriez-vous préciser d'où vient le 50 % (détail du calcul et des chiffres) ?

Connaissez-vous l'écart de performance entre les MBP 13" et 15" actuels ?

Par ailleurs, vous ne faites référence qu'aux fréquences de base (1,9 Ghz vs. 2,8Ghz), or ces CPU (comme tous les autres ou presque) ne fonctionnent pas à une seule fréquence mais dans une plage bien plus large. Cela revient à comparer la consommation de deux voitures uniquement sur autoroute et pas en ville ou dans d'autres contextes.

Pour ma part, je n'ai pas spéculé mais utilisé un benchmark bien connu et très utilisé pour mesurer la perf des CPU (Geekbench, dont les résultats sont sur leur site). (J'avais réalisé au préalable un tableau de performance afin de m'aider dans le choix de mon nouveau Mac.)

"L'intérêt premier d'un 15" par rapport à un 13", c'est justement... d'être un 15", c'est-à-dire d'avoir un écran plus grand."

Je suis tout à fait d'accord pour dire que le 15" a un écran plus grand (c'est sûr) et bien plus confortable (je l'ai constaté à de nombreuses reprises, et le gain est évident).

Mais dire que c'est le premier intérêt me semble à nouveau spéculatif. Un 15" par rapport à 13" a un CPU bien plus puissant, un GPU bien plus puissant, en plus d'un écran plus grand. Pourriez-vous partager les études qui vous permettent d'affirmer que c'est la taille de l'écran qui l'emporte ?

De nombreuses personnes, dont je fait partie, n'utilisent pas du tout, ou peu, l'écran. Cela n'est donc dans ces cas de figure pas un critère de choix.

Mon critère clé pour l'achat de mon MBP 13" vs. le 15" était justement d'avoir la taille d'écran la plus importante. Alors pourquoi ai-je choisi le 13" ? L'écart de prix entre un 13" et un 15" par rapport au prix du LG UltraFine 4K est en la faveur du LG. Et il offre un écran bien plus grand et comfortable que celui du 15", puisqu'il fait 21,5".

Par ailleurs, l'écran est bien plus haut, ce qui est meilleur pour l'ergonomie et la santé (muscles, vertèbres).

Pour la carte graphique externe, il existe heureusement des modèles très compacts qui peuvent se transporter très facilement. Quand au fait que cela ne marche qu'en mode fixe, certes, mais quand le GPU dédié est sollicité, l'autonomie du MBP ne devient-elle pas très limitée ?

Pour finir, quel PC utilisez-vous ? Un XPS 15" ? Songez-vous à passer à Mac ?

avatar SartMatt | 

"Pourriez-vous préciser d'où vient le 50 % (détail du calcul et des chiffres) ?"
On a deux CPU avec le même nombre de coeurs, une archi quasiment identique et une fréquence de base qui est 47% plus élevée sur le MBP 15" que sur le 13".

"Par ailleurs, vous ne faites référence qu'aux fréquences de base (1,9 Ghz vs. 2,8Ghz), or ces CPU (comme tous les autres ou presque) ne fonctionnent pas à une seule fréquence mais dans une plage bien plus large. "
Oui. Mais les fréquences plus élevées ne sont disponibles quasiment que s'il n'y a pas plus de 4 cœurs utilisés, surtout dans les Mac où compte tenu des faibles possibilités de dissipation Apple n'a pas joué avec les TDP up.
Or de toute façon, si tous les coeurs ne sont pas utilisés, le MBP 15" actuel perd aussi le gros de son avantage sur le MBP 13" actuel...

"Pour ma part, je n'ai pas spéculé mais utilisé un benchmark bien connu et très utilisé pour mesurer la perf des CPU (Geekbench, dont les résultats sont sur leur site)."
Le problème, c'est que Geekbench est tout sauf représentatif des performances en usage réel...

"Mais dire que c'est le premier intérêt me semble à nouveau spéculatif. Un 15" par rapport à 13" a un CPU bien plus puissant, un GPU bien plus puissant, en plus d'un écran plus grand. Pourriez-vous partager les études qui vous permettent d'affirmer que c'est la taille de l'écran qui l'emporte ?"
C'est gentil de me demander de prouver mes dires par des études, quand toi tu fais tes propres affirmation sur le même sujet (affirmer que le GPU plus puissant est le seul intérêt restant à un 15"...) sans la moindre source.
Alors non, je n'ai pas d'étude sur le sujet. Mais il y a une chose qui est absolument indéniable avec la puissance des machines aujourd'hui : l'écrasante majorité des gens n'a pas besoin de plus de puissance que ce qu'il y a dans un MBP 13" (en fait, il est même déjà surdimensionné pour pas mal de gens). Et pourtant, il y a un marché non négligeable pour des machines de 15", 17", et même parfois plus...
Parce que chez beaucoup de gens, le portable est devenu la machine principal, utilisée quasiment exclusivement à domicile, sans le connecter à un écran externe, et donc pas mal de gens privilégient un grand écran...
De manière plus personnelle, c'est aussi le constat que j'ai fait quand j'avais un XPS 13, la plupart des gens qui me questionnaient à son sujet ne me demandait pas s'il est assez puissant, mais plutôt si l'écran n'est pas trop petit...

D'ailleurs, le lien fort entre taille et puissance, il n'y a quasiment que chez Apple qu'il est véritablement imposé, chez la plupart des autres constructeurs on a aussi la possibilité d'avoir des machines de grande taille sans être obligé de prendre une bête de course (chez Dell par exemple, il y a des 17" avec CPU dual-core et sans GPU dédié pour 600€), ou à l'inverse des machines plus puissantes tout en restant dans de petites tailles (toujours chez Dell par exemple, 13" quad-core avec GTX 1050 pour 1500€).

Alors peut-être que dans le cas des Mac, c'est plus souvent pour la puissance que les gens privilégient un 15", mais dans le cas général, j'en doute fortement.

Et ces Kaby Lake refresh pourraient être l'occasion de casser un peu ce lien, en faisant une gamme 13" avec du dual et du quad et plus tard une gamme 15" avec du quad et de l'hexa. Quitte à ce que les gammes se chevauchent sur le plan tarifaire (si le but est d'éviter qu'un 13" trop proche des performances d'un 15" ne cannibalise les ventes de 15" au détriment des marges, il suffit que l'option quad sur le 13" ramène son prix quasiment à celui d'un 15" quad, comme ça cette déclinaison du 13" fera autant de marge qu'un 15").

"Pour la carte graphique externe, il existe heureusement des modèles très compacts qui peuvent se transporter très facilement. Quand au fait que cela ne marche qu'en mode fixe, certes, mais quand le GPU dédié est sollicité, l'autonomie du MBP ne devient-elle pas très limitée ?"
Oui, l'autonomie en prend un sacré coup. Sur mon XPS 15, si je fais tourner un jeu, ça tombe vite à moins de 2h.
Mais par exemple, cet été j'ai fait un voyage de 9h en train, durant lequel j'ai pu faire tourner confortablement Civilization VI, en branchant la machine. Pas envisageable avec un GPU externe (déjà, niveau encombrement, c'est pas simple de caser un GPU externe dans l'espace exigu alloué par la SNCF à chaque usager, ensuite les prises électriques des trains sont limitées à 100W en général... avec mon XPS 15 je dois d'ailleurs passer par un chargeur USB-C 60W, parce que le chargeur d'origine livré par Dell fait 130W donc risque de faire disjoncter la prise).

"Pour la carte graphique externe, il existe heureusement des modèles très compacts qui peuvent se transporter très facilement."
Tu as des références, pour voir ce que tu appelles très compact ? Parce que perso, j'en ai pas vu un seul que je qualifierai de "compact"...

"Pour finir, quel PC utilisez-vous ? Un XPS 15" ? Songez-vous à passer à Mac ?"
J'en ai plusieurs. En PC principal, j'ai une bonne vieille tour assemblée à la maison, et un HP Zbook G2 15" au bureau (mais utilisé comme une machine fixe : sur une station d'accueil, écran fermé, branché à deux écran 24", un clavier et une souris... bien content quand même d'avoir un 15", plus confortable pour les réunions). En portable perso, j'ai un XPS 15 (qui remplace un XPS 13, trop petit) et un Asus T100 pour quand j'ai vraiment besoin d'une machine très compacte (10").
Les Mac, j'ai donné pendant quelques années (Powerbook 12" puis Macbook Blanc 13" puis Macbook Pro 15"), pour l'instant j'envisage pas d'y retourner, peut-être juste un petit Mac Mini d'occase un jour pour pouvoir tester mes devs sous OS X.

avatar Marco787 | 

Pour la première partie, il me semblait que tel était votre raisonnement, mais cela demeure pour moi spéculatif en l'absence de preuves concrètes, c'est à dire en usage réel sur plusieurs types de tâches.

Et vous le dites vous-même, seul un usage réel permet d'avoir une réponse, et vous n'avez pas de tels exemples il me semble. Vous ne pouvez donc affirmer que l'écart est proche de 50% (ou autre chiffre).

Vous indiquez que les benchmarks ne sont pas du tout représentatifs (ce qui es pour moi un peu sévère, le benchmark a quand même une valeur), mais dans ce cas de figure, une approche comparant les coeurs etc. l'est peut être encore moins. Au moins les benchmarks font faire une série de calculs uniformes aux CPU, en vrai. Rien n'est théorique. Ensuite dans la réalité, et bien sûr, l'écart pourra varier selon les tâches.

Vous parlez aussi de l'autonomie des XPS 15 (il me semblait bien que vous en aviez un), mais cela n'est pas transposable aux MBP (ou aux autres ordi d'ailleurs), qui était mon propos.

Quand vous indiquez "une archi quasiment identique "

Les processeurs de 8eme génération série U sont quasiment identiques aux 7eme génération 7700HQ ? Comment est-ce possible ?

"C'est gentil de me demander de prouver mes dires par des études, quand toi tu fais tes propres affirmation sur le même sujet (affirmer que le GPU plus puissant est le seul intérêt restant à un 15"...) sans la moindre source."

Je vous ai répondu qu'effectivement, cela n'est pas le seul point. L'erreur étant corrigée, il ne me semble pas fondé de la citer à nouveau comme si elle n'avait jamais été corrigée... Donc pour ma part, tous les éléments que je cite sur cette comparaison entre le MBP 13" et 15" sont établis.

Veuillez noter en outre que je n'ai pas privilégié une raison plutôt qu'une autre, mais listé simplement les motifs qui pourraient faire choisir un MBP 13" à un 15".

Sur le poids des critères chez Apple, au vu du prix, l'écran n'est clairement pas en tête. Pour preuve, les MacBook Air 13" (avec un écran moins bien agréable que sur MBP 13") et MBP 13" se vendent bien plus que les 15".

Et je suis on ne peut d'accord avez vous concernant le choix large et flexible en termes de performance / prix / taille d'écran offert par Dell.

Après avoir lu le reste de votre commentaire, un point clé apparaît qui permet de mieux vous comprendre et explique les divergences : vous ne pensiez pas réellement aux MacBook Pro qui étaient le sujet, mais aux laptop sous Windows en général.

Par curiosité, avez-vous 32 G de RAM, est-ce utile dans votre cas ?

Et bonne nouvelle peut être pour vous : la eGPU ultra compacte dont je parlais est celle-ci :

https://www.gigabyte.com/Graphics-Card/GV-N1070IXEB-8GD#kf

Elle tient sans problème à coté d'un XPS 15 sur une table de TGV (les zones à 4 personnes). (Il en existe d'autres compactes, mais sans GPU intégré à la box.) Les autres eGPU sont effectivement assez encombrantes, quand elles ne sont pas en plus un peu inesthétiques.

Prix : environ 670 euros pour du GTX 1070 en TB3 et de nombreuses sorties video, ce qui est plus que correct, surtout de nos jours avec l'inflation des prix des cartes graphiques.

Dans le cas où vous l'essayeriez, il serait utile de faire part de votre expérience.

avatar SartMatt | 

"Vous ne pouvez donc affirmer que l'écart est proche de 50% (ou autre chiffre)."
En même temps, je n'ai pas "affirmé", j'ai dit "je pense" et "on peut tabler". Ce n'est qu'un avis, basé sur les caractéristiques et expérience de ce que j'ai pu voir jusqu'à présent sur des cas similaires (et en prenant en compte le "budget thermique" qui est plus de deux fois plus élevé sur les quad des MBP 15" que sur ces nouveaux quad. Avec une archi très proche, cet écart de "budget" fait que les puces des MBP 15" peuvent beaucoup plus exploiter le turbo sur 4 cœurs que les nouvelles puces quad basse consommation.

"Les processeurs de 8eme génération série U sont quasiment identiques aux 7eme génération 7700HQ ? Comment est-ce possible ?"
C'est possible parce que la 8ème génération n'est qu'une évolution mineure de la 7ème.
Depuis quelques générations chez Intel, les architecture ont un nom de code en deux partie.
Quand la seconde partie change (par exemple Ivy Bridge -> Has( )well), c'est qu'il y une évolution significative de l'architecture. Quand seule la première partie change (par exemple, Sky( )lake -> Kaby Lake), ce qu'il s'agit d'une évolution plus mineure de l'architecture. Mais entre la 7ème et la 8ème, ils n'ont changé ni l'un ni l'autre, ils ont juste ajouté un "Refresh" derrière. Parce que l'évolution de l'architecture est extrêmement minime.
En fait, cette 8ème génération "Kaby Lake Refresh" n'est qu'un bouche trou ajouté tardivement (donc qui du coup n'a pas bénéficié de beaucoup de R&D) pour sortir quelque chose de nouveau suite à retard de la gravure en 10nm (Canon Lake, qui aurait dû succéder à Kaby Lake fin 2017 d'après les roadmaps initiales). Il y a une deuxième génération "intermédiaire" qui sera intercalée entre Kaby et Canon, les Coffee Lake, qui pour leur part embarqueront un peu plus d'évolution d'architecture, mais seront à priori uniquement pour les desktop (les série 8 en desktop seront des Coffee, pas des Kaby R).

"Par curiosité, avez-vous 32 G de RAM, est-ce utile dans votre cas ?"
Non, je l'ai pris avec 16 Go pour l'instant, ça me suffit. Si j'ai besoin de 32 Go plus tard, je pourrais l'upgrader (hé oui, il a des barrettes... autre avantage du 15" par rapport au 13", où on a désormais rarement des barrettes sur les ultrabooks).

"Elle tient sans problème à coté d'un XPS 15 sur une table de TGV (les zones à 4 personnes). (Il en existe d'autres compactes, mais sans GPU intégré à la box.)"
Ok, donc on n'a pas la même définition de compact. Pour moi un truc qui fait quasiment 10cm dans sa plus petite dimension, c'est pas compact, ça rentre déjà dans la catégorie "pavé", c'est pas le genre de truc qu'on glisse dans un sac à dos... Et après de toute façon il se pose toujours le problème de l'alimentation, qui fait que même si ça se pose sur la table de TGV (enfin à condition que les 3 autres personnes ne s'étalent pas trop autour hein, parce que même les tables de 4, elles sont très petites...), les prises 100W des TGV ne permettront pas de l'alimenter, une GTX 1070 ça va chercher dans les 150W sans overclocking et sans compter les pertes dans l'alim...

Du coup la GTX 1050 me semble quand même rester un bien meilleur compromis dans mon cas, avec une puissance correcte en mobilité, utilisable avec juste un chargeur 60W (bon, à pleine charge, avec le chargeur 60W, le chargeur ne fait que prolonger l'autonomie, pas assurer une autonomie "infinie", sauf à activer le mode économie qui en gros divise par deux les performances du GPU pour réduire la consommation... toujours suffisant pour Civilization VI, plus pour Project Cars ^^), et un PC de bureau avec une GTX 1070 pour la puissance en usage fixe.

Pages

CONNEXION UTILISATEUR