Fermer le menu
 

Ice Lake, Intel sort une nouvelle architecture de son chapeau

Florian Innocente | | 09:37 |  34

Intel a officiellement annoncé une prochaine architecture processeur baptisée "Ice Lake". Elle est promue comme profitant d'une finesse de gravure de 10 nm, apte à réduire encore la consommation électrique. C'est tout ce que son fabricant en dit pour le moment.

Actuellement les processeurs d'Intel s'en tiennent à 14 nm et le passage vers ce nouveau seuil reste délicat. Ars Technica, qui a repéré l'apparition soudaine de cette nouvelle référence, s'en étonne puisque le fondeur a déjà sur le feu Coffee Lake (successeur des Kaby Lake qui équipent les derniers Mac) et Cannon Lake, deux évolutions à propos desquelles les détails sont là aussi ténus.

La lecture de la grille des prochaines architectures d'Intel s'en trouve dès lors compliquée. Ice Lake est sommairement présenté comme le successeur, en 10 nm, de Coffee Lake alors que ce rôle était jusque là dévolu à Cannon Lake.

Le chemin vers la gravure à 10 nm Cliquer pour agrandir

Telles que les choses se présentent, les ordinateurs de bureau et les portables utiliseraient Coffee Lake, les portables seuls (et machines de bureau, comme l'iMac qui peuvent utiliser des puces pour portables) passeraient ensuite sur Cannon Lake et tireraient avantage les premiers de cette nouvelle finesse de gravure. Puis, tout le monde embarquerait sur Ice Lake.

Pour Ars Technica Intel pourrait vouloir roder et mûrir ses techniques de fabrication en 10 nm sur les puces pour portables, car plus petites — les taux d'échec sont moins graves eu égard aux volumes produits - avant d'en faire bénéficier les plus gros processeurs pour machines de bureau.

Catégories: 

Les derniers dossiers

Ailleurs sur le Web


34 Commentaires Signaler un abus dans les commentaires

avatar Remords Sincères 16/08/2017 - 09:48

On va bientôt dépasser les 30 millions de transistors par millimètre carré sur une puce.
Putain... hallucinant.

avatar Alberto8 16/08/2017 - 10:34 via iGeneration pour iOS

Intel sous pression 🤔 arm arrive 😁.

avatar Hasgarn 16/08/2017 - 11:16 via iGeneration pour iOS

@Alberto8

Déjà qu'AMD leur a mis un coup de pression.

Grâce à la concurrence, Intel se sort enfin les doigts.



avatar alfatech 16/08/2017 - 13:13 via iGeneration pour iOS

@Hasgarn

"Grâce à la concurrence, Intel se sort enfin les doigts."

Bien et pas bien…Aujourd'hui on a l'assurance d'avoir du matériel dans le coup plusieurs années, perso j'ai pas envi de revenir à l'époque où son matériel n'est plus dans le coup en même pas 2 ans car c'est la course à la puissance (les dev n'optimisaient plus leur programmes mais se reposaient sur la puissance brute et on se retrouvait avec un ordi dans les choux qu'il fallait remplacer assez rapidement)

avatar saoullabit 16/08/2017 - 16:31 via iGeneration pour iOS

@alfatech

Je valide ton propos !
Complètement d'accord avec toi

avatar C1rc3@0rc 16/08/2017 - 21:50 (edité)

On peut vouloir effectivement se complaire dans la stagnation, qui a quelque chose de confortable en assurant une forme de stabilité, pour autant, si ses besoins sont couverts, ce n'est pas le cas pour tous.
On est dans une situation assez dramatique ou le manque de puissance de traitement se fait sentir de plus en plus dramatiquement. La croissance en taille et complexité des données a traiter par l'informatique est exponentielle, pas moins. Aujourd'hui on a la moitie de la puissance necessaire pour traiter les donnees existantes, elles s'accumulent. Dans 3 ans on va passer a 1/5 de la puissance necessaire... c'est dramatique.

Certes il va falloir attendre 8 a 10 ans pour que le particulier ressente cet ettoufement ineluctable, mais au niveau de la recherche et de l'industrie c'est un cataclysme en cours.

Pour ce faire une idée meme caricaturale des choses, la puissance necessaire aujourd'hui impliquerait que chaque humain dispose de 8 a 10 To de stockage et 4 a 5 serveurs de calcul ( avec disons du Xeon 18 core a 4Ghz - qui n'existe pas - et du multiGPU type Nvida 1080Ti - mais dans sa version pro -) tout ça relie en fibre.

Certes pour regarder Netflix ou flaner sur Twitter ou Fessebouc un macbook suffit, voir un chromebook (aussi puissant mais bien moins cher). Alors, lorsque ses besoins se cantonnent a cela, oui la stagnation d'Intel est confortable et fait faire des economies. Aujourd'hui un Mac d'il y a 10 ans a la meme puissance de calcul qu'un tout fraichement sorti, ok, mais on a bien une puissance de calcul d'il y a 10 ans...

avatar melen 17/08/2017 - 00:08

Bonsoir,
Comment se manifeste ce besoin en puissance ? Et-ce du calcul pour l'industrie de pointe ? De la recherche scientifique ?
J'ignorais cette approche étayée ici,
merci s'il y a possibilité de m'éclairer.

avatar C1rc3@0rc 18/08/2017 - 00:10

1ere reponse simple: on genere aujourd'hui plus d'informations qu'on ne peut en traiter et cela de maniere croissante en masse comme en complexite. Les datasciences entrent partout, le bigdata est un mot devenu courrant, les mathematique avancées sont incontournables dans un nombre croissant de domaines.

2eme reponse en chiffres:
-jusqu'en 2005 l'humanité disposait de 130 exaoctet de données... en 2020 on sera face a 50 000 exaoctet, soit une croissance de presque 40 000% en 15 ans.
-En 2010 tous les ordinateurs de la planete etaient capables de traiter 7 000 exaoctet, aujourd'hui c'est 10 000 et en 2020 ce sera 12 000 ou 13 000 exaoctet... (soit une perte de croissance de puissance de 10% sur 5 ans)

3eme reponse plus technique: on est dans la situation des annees 60, juste avant l'arrivee de la micro-informatique. Les sciences ont fait des progrès considérables dans quasi tous les domaines et accélèrent, il y a de plus en plus de scientifiques et de chercheurs (sciences dures aux sciences humaines en passant par la médecine et la politique ou le commerce), de plus en plus de spécialistes, qui produisent non seulement beaucoup de connaissances qui obligent a reconsidérer chaque activité et domaine, mais surtout il y a une interconnexion croissante et une multiconnexion.

Cela implique qu'il n'y a quasi plus aucun domaine indépendant et cloisonné et que toute activité dans un secteur implique des interactions et donc des connaissance dans ceux qui sont connexes. Tout cela devant passer par des outils de gestion de l'information puissants.

Poses la question autour de toi de qui connait le langage R, les soft SPSS ou Tableau, qui utilise Excel pour faire de la modelisation (en fait pour autre chose que gerer sa liste de course ou son carnet d'adresse). Il y a 10 ans le secrétariat consistait a faire des PV, ecrire des lettes, tenir un agenda,... aujourd'hui il faut savoir utiliser des fonctions avancer d'un tableur. Le comptable a disparu, l'expert comptable est devenu commun.

N'importe qui en politique ou dans le marketing aujourd'hui travaille avec des outils statistiques avancé, code en R ou synthétise des flots de données avec SPSS. Les dernières élections en occident ont toutes été conduite avec des outils d'analyses sociologiques traitant de big data et d'analyse de millions de profils comportemento-affectivo-economico-sociologique (ouf).

Meme un agriculteur aujourd'hui doit utiliser un outil informatique connecté pour decider de sa strategie de culture... ceux qui ne le font pas disparaissent.

Au cours des 10 prochaines annees il va disparaitre plus d'emplois qu'il n'en a disparu au cours des 100 precedentes. On ne parle pas de chomage par surpopulation mais de disparition de type d'activité du fait de l'automatisation et de l'informatisation. L'outil informatique n'en est pas la cause, la cause en est la complexification de l'information. Dans 10 ans quasi tous les emplois seront concernés par ce qu'on nomme les datasciences.

Au niveau du particulier c'est le flot d'information de consommation qui augmente. Si on considere les fichiers media, ils necessitent aujourd'hui des puissance de traitement croissantes (on commence a le voire avec la Hii Res et les H265) mais le gouffre arrive avec la VR.

Mais il se pose un gros probleme: dans les annees 60 on avait une informatique en pleine croissance (technologique). Les mini ordinateurs allaient laisser la place a la micro-informatique, qui allait aboutir a l'informatique individuelle. La puisse d'un ordinateur individuel ateignant et depassant tres vite la puissance de mini-ordinateur. Les utilisateurs individuels disposaient alors de machines de plus en plus puissantes et apprenaient a les utiliser de maniere de plus en plus efficace.
Aujourd'hui, le PC stagne en puissance depuis 10 ans (processeur), voire régresse (processeur choisi, capacité de stockage, autonomie, possibilité de connexion), et ou l'obsolescence due a progres a fait place a l'obsolescence programmee par le marketing. On a des machines de divertissement (tablette, smartphone, console,...) ou des incongruité inutiles (smartwatch).

Prenons un exemple concernant Apple: le MacMini serveur 2012 16Go / 2 To. En monocore il est similaire en puissance avec le Mac Pro, et il arrive selon les domaines a depasser ce dernier. Pareil en comparaison du Macbook Pro 15". Si on compare en rapport puissance/prix c'est effrayant.

Prenons l'iPad, machine de consultation par excellence: il a une puissance équivalente voire supérieure aux PC de moyen de gamme d'Apple actuels, parce que ces derniers ont fortement régressé ou stagné.
Dans tous les cas on a des machines qui sont au niveau de capacité de traitement qui se situent au niveau moyen de ce que l'on avait il y a plus de 5 ans. Et pendant ces 5 ans la croissance globale de donnees et sa complexification s'est accélérée de plus de 2500% par an…

avatar melen 18/08/2017 - 14:06

Merci beaucoup pour cette longue analyse, passée actuelle et à venir de l'évolution des besoins en puissance informatique.

J'en avais absolument pas conscience.
Bien sûr que nous entendons parler de data, bigdata, etc., mais je n'avais pas pris conscience de la puissance d'analyse nécessaire. Je pensais bien à l'aspect logiciel de traitement des données, cela m'impressionne, mais pas les besoins au niveau matériel.

Et en même temps que ces explications techniques, la façon dont nous allons vivre à une échéance moyenne - du fait de ces évolutions - mériterait d'être interroger.
Là, ce n'est plus du ressort de ce forum. Merci en tout cas pour le temps consacré à ces explications.

avatar Hasgarn 16/08/2017 - 16:50

Complètement.

Reste aussi, outre la course à la puissance, la place de leader incontestable d'Intel qui lui a permis d'imposer ses prix. C'est quand même bien d'avoir la possibilité d'acheter un 8core/16threads pour 500€ là ou Intel en demandait 1000€ y'a pas si longtemps.

Quand au dev pour du multithreading, des logiciels comme DXO savent utiliser autant de cores qu'il est dispo. Il semble que le pas à franchir, aussi grand soit-il, ne refroidit que les plus fainéants (Adobe, je te regarde) et une fois franchi, ça demande de l'entretien et de l'optimisation mais pas des travaux considérables (encore une fois cf Prime de DXO). À confirmer toutefois.

Et enfin, la finesse de gravure va forcément ralentir la course à la puissance pendant encore quelques années. Personne ne peut affirmer que ça va durer longtemps (ou pas longtemps), mais on est tranquille pour au moins 3/4 ans, je pense.

avatar Stardustxxx 16/08/2017 - 18:17

@Hasgarn
"Et enfin, la finesse de gravure va forcément ralentir la course à la puissance pendant encore quelques années. Personne ne peut affirmer que ça va durer longtemps (ou pas longtemps), mais on est tranquille pour au moins 3/4 ans, je pense."

L'opinion générale dans le milieu est la fin de la loi de Moore en 2020-2021 avec une finesse de gravure de 3-5 nm.

Ensuite c'est ordi quantique, nanotubes et architectures radicalement différentes.

avatar macfredx 16/08/2017 - 22:05 (edité)

Entièrement d'accord avec toi !

avatar frankm 17/08/2017 - 09:49

T'inquiète, ça fait déjà des années que l'évolution n'évolue pas vraiment. J'envisage de plus en plus un changement matériel tous les 4 ans voire 5 ans avec les années qui passent

avatar C1rc3@0rc 16/08/2017 - 21:37

«Grâce à la concurrence, Intel se sort enfin les doigts.»

Alors en fait, non.
Intel fait pas mieux ni autrement que ce qui est fait depuis 30 ans, mais Intel fait plus et mieux de marketing et de campagne de com.
De toute façon, Intel a toujours fait de son mieux, le mur qui freine les progres, c'est l'architecture x86, archaique et inadaptée aux problemes actuels.
Si Intel devait se sortir les doigt du marecage nauseabond ou la societe s'est enlisée, entrainant le reste du secteur electro informatique, c'est en changeant radicalement d'architecture... ce qui n'est pas le cas, ni meme a l'horizon.

La, Intel a trouvé un moyen de prendre de l'avance sur ses retards a extension sur ses feuilles de routes irrealistes.

La gravure a 14nm n'est toujours pas maitrisée (taux de dechets importants, efficacité de consommation anecdotique). Depuis le passage sous les 32nm les gains energetique, calirifiques sont... quasi nuls. La vitesse de traitement ne subit aucun benefice.
Le seul interet de descendre sous les 22nm c'est que les puces sont plus petites et que par economies d'echelle sur la quantite de materiaux employées, elles sont plus rentables... en theorie, parce qu'avec l'augmentation du taux de dechets, l'augmentation du cout des materiaux qui doivent etre de plus en plus de haute qualité et le cout exponentienl des usines, ce gain est tres relatif.

AMD n'a rien mis comme coup de pression, AMD a fini par rattraper Intel qui s'est pris le mur. La ou AMD a un avantage sur Intel, c'est qu'AMD est fabless, donc n'a pas a investir ni a amortir des usines de productions a couts astronomiques. Et on peut suspecter AMD de faire tres peu de benefice sur les Ryzen et qu'ils servent surtout a casser la politique de terre brulée qu'Intel a developpé en flanquant un eGPU de m!@#$% dans tous ces Core i et quelques Xeon, qui a pour consequence de priver AMD de son principal revenu: les GPU d'entree de gamme.

Le seul a vraiment mettre, sans le vouloir, la pression sur Intel c'est ARM. Intel s'est systematiquement cassé les dents pour entrer ou revenir sur les marchés pris par ARM, et maitenant ARM arrive sur PC et serveurs, le monopole du x86. Ça c'est de la pression, mais on constate une chose: Intel est incapable de gagner un marché concurrentiel.

avatar Moebius13 16/08/2017 - 11:20 via iGeneration pour iOS

On dirait qu'AMD leur a mis un petit coup de pression, on va soudainement passer de 4 cores à 6, 8, et plus sur les gammes grand public, chose qu'intel vendait une blinde auparavant.

Le match s'annonce intéressant surtout niveau tarifaire, sur les tâches massivement parallélisées comme le traitement vidéo, AMD est désormais bien placé.

Il n'empêche que l'évolution est de plus en plus lente même si le 10nm est impressionnant, le passage à 7nm risque de se faire dans ma douleur et en dessous on va commencer à atteindre des limites quantiques qui vont obliger les fondeurs à repenser complètement les CPU pour que les performances augmentent de nouveau significativement.

En tout cas ça présage du bon niveau mobilité, dans moins de 5 ans on aura dans le creux de la maison et sur le poignet des appareils dont la puissance rivalisera avec des machines de bureau d'aujourd'hui, ce qui est assez hallucinant quand on y pense et promet de belles choses notamment dans le domaine de la réalité augmentée cher à Apple depuis quelques temps.

avatar Philbee 16/08/2017 - 12:49

Si j'en crois certains, Intel nous prendrait pour des truffes depuis un petit moment...bizarre que je ne sois pas surpris ! 😁

avatar Narcis 16/08/2017 - 17:28 via iGeneration pour iOS

Question simple, mais j'ai du mal à trouver une réponse complète sur le web : est-ce que chaque nouvelle génération de processeurs apporte un gain de puissance ou de vitesse ou n'est-ce que la consommation qui baisse en conservant une même puissance ?
Autrement dit est-ce qu'un processeur de X GHz de génération N est équivalent en puissance à un processeur N-1 de X GHz à puissance équivalente ?
Merci à ceux qui peuvent d'éclairer ma lanterne 🕯

avatar Hasgarn 16/08/2017 - 18:16

Y'a tellement à boire et à manger avec cette question.

Déjà, chez Intel, depuis plusieurs années, le gain en puissance d'une génération à l'autre est de 5 à 15% sur la gamme i3/5/7. Pas foufou, mais heureusement il y a un peu de puissance en plus.
Effectivement, avec la réduction de la finesse de gravure, les gagnants sont la consommation et le dégagement de chaleur.
La puissance, ça dépend aussi ce que tu mets dedans : il y a la puissance mono-cœur (la fréquence) et la puissance multi-cœur (le nombre de cœur). Sur le mono-cœur, je ne vois pas de progrès significatif depuis un baille.
Sur le multi-cœur, ça dépend du nombre de cœur mais il y a eu une vraie augmentation dû notamment à la finesse de gravure (plus de place pour plus de cœurs avec un même radiateur tu refroidis aussi bien). Par exemple, Apple mettait des Westmer (une architecture 32 nm si je ne m'abuse) dans les anciens Mac pro 5.1 qui se sont retrouvé un peu derrière lorsque le Mac Pro 6.1 est sorti : avec une seul puce, les Xeons de cette génération mettait dans le vent les Macs à 2 puces.
Donc, la puissance augmente d'une manière générale, peu pour le iX, beaucoup pour les grosses puces Xeon ou i3/5/7 gamme X (et le prix va avec).

J'en parle un peu plus haut mais on pourrait avoir un vrai gain si les développeurs prenaient vraiment en charge le plus grand nombre de cœur possible. Beaucoup de logiciel se repose encore sur la fréquence des puces plus que sur leur nombre. Aujourd'hui le problème est là.

Ensuite, il y a le fait qu'Intel a fait al course en tête depuis tellement longtemps qu'on n'a pas l'impression qu'ils ont fait des efforts pour proposer du mieux. Comme tu le soulignes, on se demande parfois s'il y a vraiment du progrès en puissance.

Perso, ça commence à me courir et j'en viens à critiquer sévèrement chaque fois que je le peux les éditeurs qui ne font pas ce travail.

J'espère avoir apporté une petite flamme à ta lanterne :)

avatar Stardustxxx 16/08/2017 - 18:26

@Narcis
C'est une question compliquée en 2017, il a 10-20 c'était facile.
En moyenne, une nouvelle génération est environ 5% plus rapide, donc oui la consommation baisse pour la même puissance (le tdp diminue).
La fréquence n'est plus un indicateur que l'on peut comparer directement, Intel ajuste les fréquences de fonctionnement en fonction de la micro architecture sous jacente. Et maintenant les cpus peuvent booster leur fréquence en fonction du nombre de coeur utilisés.
Mais globalement c'est surtout le nombre de coeur qui va décider de la puissance de ton cpu, un gain de 5% sur un core ne battra jamais l'addition d'un autre core.

La fréquence n'est plus un moyen de différencier la performance des CPUs, le nombre de coeur, la quantité de cache est aussi importante.

avatar C1rc3@0rc 16/08/2017 - 22:15

Bah, la finesse de gravure n'a rien a voir avec la puissance ni la consommation. C'est une question de rentabilité des puces au niveau des economies d'echelle en production de dimension industrielle.
La conjoncture de Moore c'est un principe d’économie industrielle et rien d'autre.

Nvidia a demontré, comme Apple, qu'en gardant la meme finesse de gravure on pouvait augmenter la puissance tout en diminuant la consommation et la production calorifique. C'est le travail sur l'architecture qui permet d’obtenir l'efficacité énergétique, rien d'autre.

Les problemes insurmontables quantiques et electriques lie a la finesse de gravure ont ete mis en evidence a partir de 18nm au Leti, y a un paquet d’années de ça. Depuis, les fondeurs ont trouvé des subterfuges pour compenser ces problemes (rattrapage d'erreur par le logiciel, empilage 3D avec le FinFET, et autres petites merveilles de complication) mais ça n'evite pas les problemes et ça a un cout en terme de puissance et de consommation.

Tant que graver plus fin permettra de faire de la marge sur la quantite de materiaux economisé (le prix de vente de la puce ne baissant pas...) ils se débattront pour graver plus fin (avec un cout par usine si énorme qu'il n'y aura qu'un ou 2 fondeurs dans le monde, c'est lenjeu de la course actuelle et de la fausse dénomination 10nm - qui est du 14nm ou du 16nm, voir du 20nm). Ça n'a aucun impact positif sur le consommation ni la puissance, c'est juste financier.

apres, une fois que le coût de production sera si eleve que le prix de vente ne pourra plus être rentable, ils s’arrêteront de graver plus fin. A partir de la on a 2 perspectives: soit on a une nouvelle revolution electronique (enfin photonique, quantique, ADN ou je ne sais quoi), soit on doit passer a autre chose que du silicium (mais le cout explose), soit on entre dans une phase de stagnation intense ou c'est le travail d'optiisation logicielle et d'architecture materiel qui va pousser la puissance ( et la y a une bonne marge par rapport a inefficacité actuelle, mais ce sera pas suffisant pour les besoins croissants)

Quand au parallélisme que tu evoques, il a un intérêt dans certains domaines, mais l'usage d'un PC le limite a un maximum de 6 a 8 core, apres, il n'y a pas de bénéfice, au contraire (ce qu'a demontré Intel avec sa gestion de l'alimentation et le mode turbo). Par contre le gain de puissance grace a la frequence plus eleve lui est immédiatement visible, seulement la on est limité a 4Ghz. Apres on peut avoir un meilleur taux d'instructions traitées par cycles, mais c'est une question d'architecture.

avatar Stardustxxx 17/08/2017 - 01:17 (edité)

@C1rc3@0rc
"Quand au parallélisme que tu evoques, il a un intérêt dans certains domaines, mais l'usage d'un PC le limite a un maximum de 6 a 8 core, apres, il n'y a pas de bénéfice"
Et pourquoi il y a une limite après 8 core ? Les logiciels arretent de fonctionner ?
AMD Threadripper 16 core / 32 threads, Intel i9, et Xeon ont tous plus de 8 core.
Pour les application multithreader ca apporte de la puissance. il suffit d'aller voir les benchmark de Threadripper.

Le passage a un process plus petit permet de moins consommer, le fait que les transistors soient plus petit permet d'abaisser le voltage de fonctionnement. Et qui dit voltage plus petit, dit conso plus petite. Et donc le même cpu a 10 nm consomme moins qu'a 14 nm pour la même puissance.

avatar C1rc3@0rc 18/08/2017 - 03:23 (edité)

«Et pourquoi il y a une limite après 8 core ? Les logiciels arretent de fonctionner ?»

Parce qu'il y a peu de programmes qui sont parallélisables sur PC (sur serveur c'est un cas a part).
Sur tout ce qui est PC et devices, on a majoritairement des programmes séquentiels, donc pas parallélisables. On peut exploiter le parallélisme en lançant plusieurs programmes en même temps, mais la on a des problèmes pour gérer les accès mémoire (y a qu'une seule RAM, meme si les caches se multiplient comme des lapins). Et la plupart des applications passent leurs temps a attendre que l'utilisateur se maniste...
Bref, d'une part les langages de programmations usuels en micro sont pas fait pour le parallélisme (a part ADA, mais hors de l'industrie... et de l'aviation...), d'autre part tres peu de développeurs sont formés au parallélisme, et y a finalement très peu d'application micro qui bénéficient du parallélisme...
Donc on arrive vite au cas ou le processeur voit 2 de ses core tourner a fond, et les 6 autres dormir profondément. intel a beau avoir fait un travail de la gestion electrique par core remarquable, sur un octocore, la plupart du temps on a moins de puissance que sur un dual ou un quad, qui eux beneficient d'une frequence par core plus elevee.

«Le passage a un process plus petit permet de moins consommer, le fait que les transistors soient plus petit permet d'abaisser le voltage de fonctionnement.»

De 130nm a 22nm je veux bien qu'il y ait une baisse 'mecanique', meme de 32nm a 22nm ça peut encore se sentir, mais de 14nm a 10nm... c'est anecdotique, par contre toutes les compensations et et vérifications qui doivent etre mise en place pour corriger les erreurs qui se multiplient avec les effets quantiques et autres joyeusetés, ça consomme des cycles en plus donc de l'energie.

De plus Nvidia a bien démontré avec sa génération précédente resté a 28 nm, qu'on pouvait sans reduire la finesse diviser par 2 la consommation... AMD aussi dans le sens inverse, alors que les Vega bénéficient de la même gravure que les GTX1080, plus ancienne d'un an... les AMD consomment 50% d'energie en plus pour une puissance qui talonne les GTX1080 (et encore c'est que les premiers resultats, on va attendre pour voir si c'est pas plus)

avatar Stardustxxx 18/08/2017 - 04:50

@C1rc3@0rc
"Parce qu'il y a peu de programmes qui sont parallélisables sur PC (sur serveur c'est un cas a part)."
Donc le pb c'est le parallélisme et non pas le nombre de core.

"Sur tout ce qui est PC et devices, on a majoritairement des programmes séquentiels, donc pas parallélisables."
Une majorité, ca veut pas dire pas tous. Ex les navigateurs modernes, compilation, bref certains logiciels utilisent parfaitement tous les core, et donc il y a un marché pour ca, si tu passes ton temps dans word effectivement pas besoin d'investir dans 16 core. Les jeux modernes utilisent les core.

"Donc on arrive vite au cas ou le processeur voit 2 de ses core tourner a fond, et les 6 autres dormir profondément. intel a beau avoir fait un travail de la gestion electrique par core remarquable, sur un octocore, la plupart du temps on a moins de puissance que sur un dual ou un quad, qui eux beneficient d'une frequence par core plus elevee."
Et c'est exactement pour cela qu'Intel offre des i3, des i5, des i7 et bientot de i9. On pas tous besoin de la meme chose.

"De 130nm a 22nm je veux bien qu'il y ait une baisse 'mecanique', meme de 32nm a 22nm ça peut encore se sentir, mais de 14nm a 10nm... c'est anecdotique"
Tu veux bien ? Moi je regarde les chiffres, ex pour TSMC a 10 nm le voltage est de 0.7V et a 7nm il est de 0.5V : https://en.wikichip.org/wiki/10_nm_lithography_process et https://en.wikichip.org/wiki/7_nm_lithography_process

"De plus Nvidia a bien démontré avec sa génération précédente resté a 28 nm, qu'on pouvait sans reduire la finesse diviser par 2 la consommation"
nVidia n'a rien démontré, deja tu compares GPU et CPU qui n'ont du tout les meme contraintes, et ensuite nVidia l'a fait une fois qu'une fois, difficile de généralise.

avatar 0MiguelAnge0 17/08/2017 - 20:59 via iGeneration pour iOS

@Narcis

La réponse est dans la publication d'Intel dans l'article (sur fond bleu). Tableau de gauche.

avatar Stardustxxx 18/08/2017 - 16:18

@Narcis
Hardware.fr vient de faire un comparatif des processeurs x86 entre 2008 et 2017 : http://www.hardware.fr/articles/965-1/2008-2017-tests-46-processeurs-16-...
Comme on peut le voir, la performance augmente, la consommation diminue (conso au repos divise par 3 en 9 ans).

Pages