Coffee Lake pourrait donner un coup de fouet aux iMac

Stéphane Moussie |

Les processeurs Intel de 8e génération Coffee Lake annoncés fin septembre sont passés sur les bancs de tests de plusieurs médias. La principale nouveauté de ces puces employées par les iMac est l’augmentation du nombre de cœurs, qui passe de quatre à six.

Hardware.fr a comparé (sur Windows) le i7–8700K (6 cœurs cadencés à 3,7 GHz, Turbo Boost 4,7 GHz) au Core i7–7700K disponible en option dans l’iMac Retina 5K. Dans Lightroom, le gain de performances est de seulement 8,9 %, mais il est de 25,9 % dans DxO Optics Pro. L’encodage d’une vidéo en H.264 avec x264 est 41 % plus rapide grâce aux deux cœurs supplémentaires.

Tom’s Hardware souligne que le i7–8700K ainsi que le i7–8700 s’en tirent bien en usage station de travail. Évidemment, il faut que les logiciels tirent parti du multicœur pour que la progression soit conséquente. Pour les deux sites, ces Coffee Lake sont d’excellents processeurs. Il aura fallu attendre qu’AMD revienne dans la course avec Ryzen pour qu’Intel sorte de sa léthargie.

avatar Jeckill13 | 

"aura fallu attendre qu’AMD revienne dans la course avec Ryzen pour qu’Intel sorte de sa léthargie"

En même temps je ne vois pas où est l’exploit d’être plus performant avec 6 cœurs au lieu de 4 ! Le contraire serait quand même lamentable. Que l’on fasse une comparaison avec un modèle 4 cœurs et on verra bien si il y a lieu de s’ebaubir !

avatar Mr_Cobb | 

@Jeckill13

Nous aurions pas pu dire mieux les choses.

avatar C1rc3@0rc | 

En fait si un petit peu... ;)
Les ameliorations ne portent pas uniquement sur l'ajout de 2 core en conservant a peu pres le TDP. Il y a aussi des ameliorations notables sur les coprocesseurs, nottament avec l'AVX (mais bon son focntionnement n'est pas pris en compte dans le calcul du TDP, une sournoiserie d'Intel habituelle).
Il y a aussi l'integration des controleurs Thunderbolt 3.

En fait si au niveau du Core il n'y a aucune amelioration, cela depuis environs Ivy Bridge, voire une regression a cause de la frequence, il y a en revanche un ensemble d'ameliorations au niveau de ce qu'il faut bien appeller aujourd'hui un SoC qui font de ces processeurs tres probablement les remplaçant des Sandy Bridge, qui eux representaient la derniere evolution significative.

Bref si on doit renouveller son PC aujourd'hui, il faut absolument le faire pour un PC doté de cette 8eme generation ou aller sur AMD, qui offre d'autres avantages. Au niveau du Mac, il serait aujourd'hui stupide d'acheter une machine qui soit doté d'un processeur plus ancien, surtout sur les "petits portables" ou les gains en termes de reactivité sont encore plus signifiant. Un Macbook Air avec un 4 core verra une progression de performance importante. Les Macbook Pro 13" vont eux aussi beneficier de cette amelioration et on peut rever a un retour du MacMini Server de 2012, avec 6 core!
Bref il va falloir attendre qu'Apple mette, vite a jour, sa gamme.

Apres, la question de la responsabilité d'AMD est evidente, mais il y a aussi la responsabilite d'ARM et de Microsoft qui adopte les PC ARM officiellement.

avatar Stéphane Moussie | 
@Jeckill13 : il aura fallu attendre AMD pour qu'Intel sorte un processeur 6 cœurs.
avatar Tankiste | 

@stephmouss

Un 6 coeur mainstream

avatar oomu | 

il a fallu qu'AMD décide de faire un peu de vente en forçant un cpu compétitf (en terme de prix) face à intel, pour qu'intel daigne enfin gonfler concrètement les cpu grands publics.

bien évidemment en Xeon (dont pro avec segmentation pro du marché dans machine de pro pour prix pro) ha ben là intel n'avait aucun problème pour multiplier les coeurs. 6, 8.. 12...

avatar C1rc3@0rc | 

@oomu
«intel n'avait aucun problème pour multiplier les coeurs. 6, 8.. 12...»

Oui, mais techniquement multiplier les Core dans un processeur destiné aux applications serveur est plus rationnel et facile que sur des machines de bureau ou portable...
Et en fait, non quand on y regarde de plus pres. Intel a bien des problemes a augmenter le nombre de core dans les Xeon...On a pas de Xeon a 64 ou 128 core comme Intel le predisait il y a quelques annees, alors que les soft seraient capables de les exploiter. Aujourd'hui il faut des machines multiprocesseur ou plusieurs machines pour couvrir les besoins...

Dans un serveur, ou en plus jusqu'a une epoque relativement recente, le TDP etait un critere secondaire de choix, le soft expoite "naturellement" le multicore.
Dans un PC, a fortiori portable, la performance energetique passe devant la puissance de calcul.
Les applications, majoritairement séquentielles et la presence de plage d'attente du a l'interaction avec l'humain, enleve tous les avantages du multicore.

Bref pour Intel, avoir du dual ou du quad core, permettait sur PC, d'avoir des processeurs dont les core, majoritairement, etaient sous les 50% d'utilisation, ce qui permet de diviser d'autant la consommation et la production thermique. Et les phases "idle" permettent de refroidir évidemment les core...
C'est la principale raison a la multiplication des cores X86 sur les proc non serveur et c'est aussi la raison de la limitation de cette multiplication. Donc l'evolution entre processeur serveur Xeon et processeurs PC type Core ix n'est pas du tout comparable.

avatar oomu | 

je ne suis pas totalement convaincu. Turbo Boost marche aussi bien sur Xeon. Et a même un impact assez violent sur les performances selon les applications, preuve que cela compte.

-
et pour aller plus loin:
non encore et toujours, je conteste le discours qui serait que les apps seraient majoritairement séquentielles ou qu'inutile fasse à des humains. Il faut cesser de penser en "mono-app" ou que tous les programmes sont monolithiques de toute façon.

Il suffit de voir le nombre faramineux de process dans macOs ou Windows après un SIMPLE démarrage pour réaliser que nos machines ont besoin de faire _tout_ en même temps le plus souvent possible.

et les jeux et autres applications bureautiques ne feront qu'elles que trouver des raisons pour monopoliser les coeurs (avec les jeux, rien qu'un moteur physique est une bonne raison pour exploser le nombre de coeur en + du gpu).

Tout logiciel de graphisme, filtres, rendus, compression vidéo etc profitent de longue date des processeurs multi-coeurs.

Après, les 7 autres milliards d'humains (dont vous), je sais pas, mais moi rien que passer d'un cpu 4 coeurs à 6 coeurs changerait ma vie. Mais j'ai une vie basée sur des valeurs simples : amour et + de vitesse ^_-

-
il y a plein de trucs où on voit intel faire de la segmentation de marché sans raison technique.
exemple: le kidnapping sur les voies pcie, en plein quand on pousse des i/o ultra-rapides, des stockages pcie et du gpu de ouf pour le dernier jeu où on tue ces chalos de nazis.

Comme par hasard, AMD a multiplié les voies pcie sur des processeurs relativement abordables.

-
du coup je désespère pas intel d'abandonner son DLC..heu sa clé payante pour activer VROC.

vu que l'équivalent AMD est compris de base... évidemment.

-
mais tout cela n'aide pas à avoir du thunderbolt 3 avec un ryzen.

-
sur ce je vous laisse, je retourne à la mine accumuler assez d'argent pour Intel Core i9-7900X (non je blague, en vrai ze veu un Intel® Xeon Platinum 8180. rAAAh lovely)

avatar C1rc3@0rc | 

«je ne suis pas totalement convaincu. Turbo Boost marche aussi bien sur Xeon. Et a même un impact assez violent sur les performances selon les applications, preuve que cela compte.»

Le turboboost sur serveur est un cas tres particulier et j'ai tendance a penser que s'il a l'occasion d'etre utilisé c'est qu'il y a un probleme entre le secteur d'application et le materiel. Faut quand meme imaginer une situation ou on va avoir, sur un serveur, un process qui monte en puissance d'un coup, alors que les autres tombent en lethargie dans le meme temps. Si c'est classique sur du PC, sur un serveur c'est quand même très bizarre.

Apres, au niveau des Xeons pour stations de travail, le turboboost a les memes effets, inconvenients et avantages que sur PC. c'est pas plus intelligent ni plus bete.

«non encore et toujours, je conteste le discours qui serait que les apps seraient majoritairement séquentielles ou qu'inutile fasse à des humains.»

Ben faut poser le cadre d'exploitation pour definir la chose.

Pour qu'une application ne soit pas séquentielle, il faut qu'elle gère un process parallèle par nature.

Les humains sont capables de parallélisme, on a l'exemple célèbre de Napoléon capable de rédiger 2 courriers en même temps, mais leurs vitesse d’exécution est tellement plus lente que ce que peut faire le plus abominablement lent Atom, qu'un OS preemptif sera capable de faire croire qu'il y a un traitement parallèle en cours alors qu'il s'agit d'un passage d'un process séquentiel a l'autre...

Typiquement faire une addition matricielle c'est un probleme parallèle.
Mais taper un texte dans Word, c'est sequentiel, répondre a des emails c'est sequentiel, faire un joli dessin ou un beau graphique c'est séquentiel...

Apres certains traitements (dans des processus séquentiels) sont parallélisables (applications de certains filtres sur des données pouvant être fragmentées en sous unités, comme le flou sur une image) mais souvent, il faut les lancer sur une architecture SIMD(GPU AMD) ou MIMD(GPU NVidia, Xeon Phi), les processeurs de PC et serveurs commun etant plus une association de SISD sur une puce qu'autre chose.

L'idée d'eclater une application en plusieurs, ou en sous process, histoire qu'il y ait plus de chance d'occuper les coeurs désœuvrées, c'est une optimisation ultime, oui, mais ça change pas la nature séquentielle des taches. Simplement ça evite que des taches dormantes occupent un processeur.

Si en revanche on a 1000 requetes qui arrivent en meme temps sur les ports d'une machine et que chaque requete est independante, alors il est evident qu'un multiprocesseur a de quoi etre gavé dans son integralité.
Le hic c'est que ce genre de situation, ça arrive dans le monde des serveurs, avec en general une intensité normalisée, donc qui demande que les core tiennent la frequence de maniere stable plutot que faire le yoyo a coup de turboboost.

«Il suffit de voir le nombre faramineux de process dans macOs ou Windows»
Et de se poser la question de la pertinence de ces process surtout.
Pourquoi sur une machine non connecté au reseau, y a-t-il un paquet de process dedié a iCloud. Et d'abord pour tout ces process reseaux, alors que j'ai desactivé les comptes iCloud. Pourquoi des process Spotlight en permanence alors que je n'utilise jamais Spotlight? Pourquoi j'ai un Airportd alors que je suis connecté en ethernet???
Pourquoi toutes ces instances de Chrome actives, alors que les onglets ne sont pas visibles, et que leurs contenu ne va pas changer avant des mois (oui de la doc, qui si je veux etre certain qu'elle est a jour, ben je recharge la page!)

L'obsession du multicore pas occupé empeche, semble-t-il, la rationalisation de process.

Et puis, c'est bien beau de multiplier les process, mais un process s'il dort il sert a rien et occupe de la memoire et du temps CPU (faut bien verifier qu'il dort...)

Alors, je dis pas que le multicore sert a rien, mais que son usage touche tres rapidement ses limites (8 core grand max sur un PC) et que plus de core, ne veut pas dire plus de puissance ni plus de vitesse... ça peut meme etre l'inverse.

Et je le repete, un core i7 de 8eme generation, dans un Macbook Air ou un Macbook Pro, meme si on perd de la puissance par core, ça booste sacrement la reactivité. Et dans un MacMini, passer de 2 a 6 core c'est la promesse de voir enfin la releve du pimpant MacMini server 2012

avatar oomu | 

"Pour qu'une application ne soit pas séquentielle, il faut qu'elle gère un process parallèle par nature."

je vais faire court : j'en ai l'usage, j'ai pléthore de programmes utilisant à mort autant de coeurs que possible.

merci.

-
"Alors, je dis pas que le multicore sert a rien, mais que son usage touche tres rapidement ses limites (8 core grand max sur un PC)"

vous dites un nombre arbitraire. vous auriez dit 4 y a pas longtemps.

"et que plus de core, ne veut pas dire plus de puissance ni plus de vitesse... ça peut meme etre l'inverse."

je n'ai pas dit cela. Tout dépend de l'enveloppe thermique globale permise, de l'alimentation de chaque coeur etc.

Mais donnez moi une machine dont je peux pousser chaque coeur à fond en même temps, je prendrai celle qui en a plus. Il n'y a pas à mégoter et perdre sa vie en millions de débats sur l'intérêt ou non.

-
"Pourquoi sur une machine non connecté au reseau, y a-t-il un paquet de process dedié a iCloud. Et d'abord pour tout ces process reseaux, alors que j'ai desactivé les comptes iCloud."

votre vie, vos choix.

"Pourquoi des process Spotlight en permanence alors que je n'utilise jamais Spotlight?"

votre vie, vos priorités.

"Pourquoi j'ai un Airportd alors que je suis connecté en ethernet???"

votre vie, vos problèmes.

"Pourquoi toutes ces instances de Chrome actives, alors que les onglets ne sont pas visibles"

votre vie, votre mauvais navigateur.

"L'obsession du multicore pas occupé empeche, semble-t-il, la rationalisation de process."

absolument faux. Il n'y a aucune fatalité. A chaque développeur, éditeurs, auteurs, utilisateurs d'essayer de faire au mieux avec ce qu'on a. Oui, on a rien sans rien.

-
vous avez vos usages des ordinateurs, je ne m'y reconnait nullement et vos préoccupations ne sont pas les miennes.

Bref je le répète : oui ça sert.

avatar C1rc3@0rc | 

Débat clos, donc.

avatar françois bayrou | 

"Typiquement faire une addition matricielle c'est un probleme parallèle.
Mais taper un texte dans Word, c'est sequentiel, répondre a des emails c'est sequentiel, faire un joli dessin ou un beau graphique c'est séquentiel..."

Tu résumes l'activité d'un logiciel à ce que toi tu en fais, avec tes doigts :) …

Prenons Word
Entre l'input du clavier, de la souris, affichage de l'UI, qui ne doivent jamais bloquer ni être bloquées
Entre la correction automatique à la volée, le formatage lui aussi à la volée, le bon dimensionnement et affichage des images, la sauvegarde automatique et la mise à jour de tel ou tel dictionnaire de synonyme en arrière plan

Prenon Mail
Clavier, souris, UI, ..
Récup des mails en arrière plan. Envoi du message, avec pièce jointe, que tu as fait juste avant de rédiger celui sur lequel tu es ( souviens toi, tu as cliqué sur "envoyer" mais ensuite tu es passé au mail suivant sans attendre que le précédent soit parti )

Bref, pendant que tu tapes ton texte, il s'en passe des choses !
Et sur un logiciel "lourd" lambda comme mail, il y a bien plus matière à paralléliser que sur une app serveur lambda et surtout, que ton addition matricielle …

avatar C1rc3@0rc | 

1) je ne dis pas que le multicore n'a aucun sens ni utilité, au contraire, je detaille les cas et usages et souligne la ou c'est un avantage technique et la ou c'est du marketing.

2) les temps de reactions et d'observation de l'humain sont incomparable a l'illusion d'instantaneité que peut donner un mono-processeur en switchant d'un process a l'autre. Tous les cas que tu donnes relevent de cette illusion. A aucun moment un multiprocesseur n'est necessaire pour les cas decrits.

La ou le multprocesseurs est le plus utilisé c'est pas sur mail, application sequentielle au possible, mais par exemple sur le nevigateur web qui ouvre n onglet differents, avec un ensemble d'elements qui agissent en dehors de l'affichage et du controle de l'utilisateur (genre rechargement de zones de pub...)

avatar eX0 | 
avatar Stardustxxx | 

@ eX0
C'est un Xeon Phi, pas un Xeon server. C'est très spécialisé comme hardware.

avatar eX0 | 

@Stardustxxx

Ça reste un xeon :p.
Ils ont jamais précisé sur quelle gamme :3.

avatar C1rc3@0rc | 

@eX0

«Ça reste un xeon :p.»
Non, rien a voir du tout.

«Ils ont jamais précisé sur quelle gamme :3.»
Inutile de preciser, il suffit de savoir de quoi on parle et on evite de sortir des âneries de ce calibre.

Et puis il faudrait deja suivre le debat et le contexte, savoir un peu de quoi il est question et comprendre qu'on parle de processeur, pas de GPU ou tentant de s'approcher.

Le Xeon Phi n'a de Xeon que le préfixe commerciale: a la base c'est le residu de la contre offensive au GPGPU, le plus célèbre échec d'intel après celui de l'Atom. Intel appelait ça Larabee...
Et ne serait-ce que le fait que pour utiliser un Xeon phi, il faut... un Xeon... oui!

Sinon, si tu veux comparer le nombre de core Xeon Phi, faut le comparer a des GPGPU type, disons Nvidia Tesla qui en terme de core se comptent a 4096 dans le haut de la generation Maxwell (en 2015)...
Mais bon, meme s'il est ecrasé par Nvidia en terme de puissance, le Xeon Phi, n'est meme pas comparable, comme te l'a dit @Stardustxxx, l'usage du Xeon Phi est ultra-specifique a une sous classe de problemes...

avatar Stardustxxx | 

@C1rc3@0rc
Et pourtant, le Xeon Phi utilise des core Atom, ce n'est pas un GPGPU mais un processeur avec plein de core x64, 72 dans la dernière version.
Utilisé dans 10 des 48 supercomputers les plus rapides sur la planète.

avatar fte | 

@Stardustxxx

Inutile de te fatiguer va.

avatar C1rc3@0rc | 

@ Stardustxxx

En fait c'est pas un Atom, mais un core Pentium (architecture P54C, celle du pentium original ) qui a ete adaptée et dans sa dernière itération, améliorée sur son principal defaut - la consommation - en tirant parti des systemes et techniques de réduction d'alimentation de l'architecture developpée pour l'Atom. Mais bon passons sur ce detail technique.

Quand tu dis que ce n'est pas un GPGPU, je t'accorde qu'effectivement le fonctionnement d'un Xeon Phi n'est techniquement pas exactement celui d'un GPGPU. Le Xeon Phi derive de Larabee, ne n'est pas Larabee.
Mais c'est encore moins celui d'un CPU.

On est sur un systeme batard, un coprocesseur qui tourne avec un OS a part - uOS - qui doit etre piloté par un Linux ou Windows. C'est typiquement un "coprocesseur", et comme on le voit dans le supercomputing, notamment avec le Tianhe-2, les Xeon Phi sont pilotés par des Ivy Bridge Xeon.
Et ce qui fait la force de ce "monstre" c'est surtout le fait que les chinois n'ont pas mis de restriction energetique pour creer ce gouffre.

La toute dernière génération de Xeon Phi est une bizarrerie de plus et je sais pas trop ou Intel veut aller avec. En fait, chaque core tient 4 thread pour piloter deux unités vectorielle AVX-512. Le core est donc un ordonnanceur pour les unités vectorielles. Si cette architecture est classique, est-ce pertinent de confier cette tache a un core x86 plutot qu'a un core pur RISC conçu pour ça???
On est donc dans un truc qui ressemble a une architecture SIMD vectorielle reprenant le principe du Cell d'IBM, avec une grosse optimisation sur l'architecture de memoire. Honnêtement, je sais pas quoi en penser, surtout si on compare avec les architectures memoire des generations Pascal et suivantes de NVidia. Dans le meme temps, IBM et Nvidia travaillent sur l'integration de l'architecture GPGPU de NVidia dans l'architecture POWER d'IBM. Bon je vais pas dire qu'on peut comparer un POWER avec un Xeon Phi, ce serait une heresie, mais les directions ou tâtonne et se hasarde Intel avec le Xeon Phi - ou devrait-on plutot dire tout ce qu'Intel baptise Xeon Phi - pose question.

Mais au final, non, le Xeon Phi ne se compare pas un un CPU.

avatar Stardustxxx | 

@C1rc3@0rc
Tu sais que Intel a plusieurs version de Xeon Phi.
Effectivement la premiere version utilisais une base de Pentium P54C, mais les version plus recentes utlisent des cores Atom Airmont (https://en.wikipedia.org/wiki/Xeon_Phi) ou des cores Atom Silvermont (https://www.nextplatform.com/2016/06/20/intel-knights-landing-yields-big-bang-buck-jump/).

"La toute dernière génération de Xeon Phi est une bizarrerie de plus et je sais pas trop ou Intel veut aller avec."
Tu manques d'imagination. Car c'est une techno qui est utilisé par les supercomputers. A priori c'est aussi très efficace pour du Deep Learning.

C'est autant une héresie qu'une carte FPGA ou un ASIC, c'est une carte qui va te faire du calcul, ca n'a pas besoin d'être autonome avec un OS...

avatar C1rc3@0rc | 

@
«Tu sais que Intel a plusieurs version de Xeon Phi.»
C'est ce que j'ai ecrit... en le detaillant, dont la variation de l'architecture, toujours basée sur le P54C.

«Car c'est une techno qui est utilisé par les supercomputers. A priori c'est aussi très efficace pour du Deep Learning.»
Le fait que ce soit utilisé dans les supercomputer ne demontre pas que:
- ce soit comparable a un CPU, ce qui etait la base du fil
- que choix soit techniquement le meilleur (mais il faut regarder au niveau tarif négocié... le successeur du Tianhe-2 est une archi purement chinoise si je ne me trompe pas)
- que l'application soit generaliste

Quand au deep learning, fourre tout a la mode actuelle, d'une part NVidia a mis une grosse contestation sur les performances annoncées par Intel et d'autre part, on le voit du coté ARM, les coprocesseurs sont la clé pour accélérer ce type de taitement, ce qui implique que les processeurs existants n'ont pas des performances extraordinaires du tout... Et quand on connait un peu les principes de calcul bayesiens et le type de technique utilisées pour ce domaine, on comprend aisement qu'une architecture SIMD soit plus efficace qu'un proc séquentiel generaliste, n'importe quelle architecture SIMD ou MIMD...

L'inefficacité des traitements bayesien par les CPU conventionnels, on connait le probleme depuis les annees 80, c'est meme pire que ça si on considère plus largement l'inefficacité du traitement vectoriel par les CPU, ce qui est la cause de la reussite des GPGPU et des unité vectorielles collées dans les processeurs, a commencer par l'Altivec des PowerPC...

Tu parles d'ASIC, et la tu rejoins mon propos: le Xeon Phi est effectivement une carte effectuant un type de traitement specialisée sous le pilotage d'un CPU conventionnel. Ce n'est en aucun cas un CPU et ça n'est nullement comparable.
La question que je pose c'est la pertinence de l'architecture x86, surtout dans la derniere version ou l'on voit que le core ne sert qu'a ordonnancer les unités vectorielles AVX-512, ce qui tend a rapprocher cette version de Xeon Phi plus d'un GPU... meme s'il n'en est pas un en realité.

avatar eX0 | 
avatar fte | 

@Jeckill13

Ce n'est pas si évident que ça. Il y a toute la gestion énergétique et thermique à réévaluer après des générations des processeurs 4 coeurs.

Toute la gamme est aussi bousculée. Il n'y a pas qu'un processeur à repenser, mais toute une gamme à divers TDP.

Pour ma part, je me réjoui surtout de voir les portables à deux coeurs disparaîtrent. Je n'ai, pour l'instant, qu'un usage très ponctuel de 6 coeurs. Je resterai avec mon 7700K cette génération. Pas motivé pour bricoler plusieurs machines. Mais 4 coeurs, j'en ai définitivement l'usage.

Cette gamme est une bonne mise à jour, la meilleure depuis plusieurs générations. Ne crachons pas dans la soupe, cette fin 2017 offre bien plus de choix de bons processeurs mainstream que la fin 2016, chez AMD et chez Intel, avec de vrais gains substantiels.

p.s. Lightroom n'est pas une référence de benchmark. C'est un boulet.

p.p.s. les améliorations ne se limitent pas au nombre de coeurs, c'est réjouissant aussi.

avatar Ginger bread | 

Apres peut etre que Intel souhaiterait conserver des tarifs disons correctes pour les fabriquants de pc, ainsi que securiser sa qualite de fab. C est bien de faire la course aux performances si les tarifs restent acceptables sinon personne n achete ou sinon certains comme Apple ne vont pas tarder à creer leur solution maison:/
C est bien mais ça tue un peu l industrie et l emploi:/

avatar oomu | 

non, intel souhait conserver de meilleures marges tant qu'il n'y avait aucune pression du marché pour les forcer à rapprocher les gammes grands publics des gammes pros.

avatar C1rc3@0rc | 

@Ginger bread

La conjecture de Moore, le principe economique sur lequel repose le business model d'Intel, implique que la marge augmente a mesure que les couts de production baisse.

La fin de l'application de la conjecture de Moore, plonge Intel dans un situation difficile: comment tenir la marge si la puissance stagne et que les couts augmentent...

la reponse a ete lors de la premiere "fin" de la conjecture de Moore de multiplier les core. Apres le passage au 22nm, cette compensation a perdu de sa magie, le taux de dechet, et donc le cout par core a augmenté (en meme temps que les lignes de prod a 14nm voyaient leurs couts exploser et que la demande en processeurs stagnait).

Apres 4 generations a 14nm, Intel commence semble-t-il a arriver a des taux de dechets similaires a ceux de l'epoque de Ivy bridge, donc son couts par core baisse, permettant de rajouter 2 core (mais a frequence moins elevée) qui permet de maintenir le prix de vente ou meme de l'augmenter un peu.

Intel ne fait pas de course a la performance, si ce n'est de rentrees financieres, Intel fait de l'argent en vendant un maximum de processeurs au tarif le plus eleve possible (ou alors c'est qu'Intel est en phase de dumping pour acheter le marché).
Et comme Intel n'a pas de concurrence (oui, ok, AMD, mais sur le fond AMD n'est pas plus performant et surtout AMD a des couts de prod plus bas qu'Intel - AMD est fabless - et AMD vend avec des marges - on va dire pour etre prudent - a peine rentable.) La seule vraie concurrence d'Intel c'est ARM, mais sur PC elle est encore theorique, et sur mobile Intel s'est fait laminer (Intel n'a jamais ete concurrentielle)

avatar oomu | 

enfin ça bouge dans les gammes "grand public" (hum) d'intel.

Cela peut me motiver à investir dans intel pour un ordi de calcul (projet pour lequel j'hésite depuis 3 mois).

avatar raf30 | 

Le petit macbook va adorer cette mise à jour et on se prend à rêver d'un nouveau Mac Mini à 6 coeurs :)

avatar C1rc3@0rc | 

@raf30

Heu non, cette gamme ne concerne que les desktop et notebook comme le Macbook Air et le Macbook Pro. Les netbook, meme onéreux, ne sont pas concernés, les Core M (maintenant rebaptisés Core ixxxY) restent ce qu'ils sont.

avatar cv21 | 

C'est bien, car j'ai eu parfois cette impression: les ordis récents d'Apple étaient parfois moins "puissants" que ceux de la précédente génération. La "juste" course à l'économie énergétique et la perte de l'indice de fréquence comme repère n'arrangent rien dans la lisibilité des performances.

D'habitude elles sortent quand les mise à jour d'iMac ?

La dernière date de juin ? Cela veut donc dire une disponibilité chez Apple en juin 2018 ou lors de la sortie de l'iMac pro en décembre ?

avatar fte | 

@cv21

"D'habitude elles sortent quand les mise à jour d'iMac ?"

Quand Apple se souvient qu'elle a des Mac au catalogue aussi.

avatar pocketalex | 

@C1rc3@0rc

Heu non, cette gamme ne concerne que les desktop et notebook comme le Macbook Air et le Macbook Pro. Les netbook, meme onéreux, ne sont pas concernés, les Core M (maintenant rebaptisés Core ixxxY) restent ce qu'ils sont.

je n'ai qu'une réponse a formuler sur toutes tes participations, dont celle-ci : bouffon

t'es un putain de bouffon. Ne le prend pas comme une insulte, ce n'est pas le but, le but est de décrire une réalité. le bouffon, c'est a la fois l'amuseur, a la fois le parasite, a la fois le gogol, et tu remplis ces trois roles a merveille

tout ce que tu dis, toutes tes participations... c'est de la merde ! c'est n'importe quoi. tu étales ton ignorance crasse dans des commentaires fleuve qui polluent un forum qui n'en avait pas vraiment besoin

et Apple ne produit pas de netbook, ils font pas dans le low-cost. ça fait 50 fois qu'on te l'explique, mais comme on parle a un déviant... t'es flippant quoi. pas dangereux, enfin j'espère pas, mais flippant. et polluant.

avatar en ballade | 

@pocketalex

Tu nous saoules

Comment macge laissez vous un niveau de vulgarité et d’agressivité ?

avatar fte | 

@en ballade

La forme est on ne peut plus discutable, mais sur le fond, il n’a malheureusement pas tort.

Mais tant qu’à t’indigner de la qualité des contributions, peut-être devrais-tu t’attacher à augmenter la qualité de tes propres interventions avant de jouer au chevalier blanc.

avatar pocketalex | 

@fte : la forme représente une sérieuse exaspération de lire des conneries, conneries répétées, re-répétées et re-re-répétées, c'est lourd

avatar fte | 

@pocketalex

Je sais. Et c’est long aussi. Très long.

N’empêche, il y a une différence entre critiquer un contenu et critiquer une personne.

avatar pocketalex | 

@fte : je critique un tout. Autant un contenu délirant et ubuesque, qu'une attitude que je juge personnellement "malsaine" mais dont le qualificatif "d'amuseur public" convient tout aussi bien, et donc de "bouffon" qui a la même signification.

Pour moi, ce n'est pas une insulte mais un qualificatif, qui aurait aussi pu être "troll" ou "sale troll", mais tellement de gens lui ont déjà dit tellement de fois...

CONNEXION UTILISATEUR