Intel serait encore bloqué en 14 nm pour Cannon Lake

Nicolas Furno |

De façon réaliste, on devrait voir des processeurs basés sur NetBurst atteindre les 8 à 10 Ghz dans les cinq prochaines années.

C’est ainsi que le site AnandTech présentait cette nouvelle architecture Intel à la fin de l’année 2000. À l’époque, la toute nouvelle architecture inaugurée par le fondeur pour ses Pentium 4 promettait beaucoup et les prévisions calquées sur les années d’évolutions du Pentium III faisaient rêver. Imaginez donc, un processeur à 10 Ghz qui nécessite moins d'un volt en 2005 !

Cliquer pour agrandir

Inutile de vous dire que l’histoire a largement donné tort à AnandTech et à Intel. Les énormes progrès suivis depuis les débuts de l’informatique ont rapidement rencontré un mur : la consommation électrique et la dissipation thermique des Pentium 4 a augmenté de façon exponentielle. Si bien que l’entreprise n’a pas tenu son objectif et a même été contrainte d’abandonner la nouvelle architecture pour les ordinateurs portables.

Dès 2003, trois ans seulement après les prédictions d’AnandTech, les Pentium M sortaient pour les ordinateurs portables. Beaucoup moins gourmands, ils étaient basés sur une architecture dérivée de P6, celle des Pentium III. En 2006, Intel présente une nouvelle architecture, nommée Core, qui est toujours dérivée de celle-ci, mais modernisée notamment pour gérer plusieurs cœurs. Depuis, de nombreuses générations se sont succédées et les changements sont toujours plus réduits.

Le fondeur n’arrive même plus à suivre son rythme Tick-Tock où une génération sur deux seulement avançait vraiment. Kaby Lake est la troisième génération d’affilée gravée à 14 nm et sans évolutions notables. On attendait mieux pour la prochaine, nommée Cannon Lake, mais la huitième génération des Core devrait encore rester à 14 nm au lieu des 10 promis à l’origine par Intel.

Kaby Lake, la dernière génération de processeur Intel.

Au mieux, Intel devrait pouvoir passer certains modèles réservés aux ordinateurs mobiles à 10 nm, mais la gamme dans son ensemble devrait encore stagner sur le plan des performances. Le problème, c’est que le constructeur semble désormais incapable de tenir ses promesses, que ce soit en termes de fonctions ou bien de délai. Le passage à 10 et même à 7 nm était prévu il y a deux ans pour la fin de l’année 2016, mais il faudra sans doute attendre 2018 au mieux.

Le chemin parcouru depuis 2000 reste impressionnant sur certains points. Les meilleurs processeurs d’alors tournaient autour de 1 Ghz seulement et ils étaient gravés à 180 nm, près de treize fois plus épais qu’aujourd'hui. Malheureusement pour Intel (et pour nous), les progrès phénoménaux des années 1990 n’ont pas perduré et la difficulté pour obtenir des améliorations s’est révélée exponentielle…

Pendant ce temps, les processeurs ARM de nos smartphones progressent encore de façon significative tous les ans. Le processeur de l’Apple A10 qui équipe l’iPhone 7 est gravé en 16 nm et devrait passer à 10 nm dès cette année. Les deux cœurs tournent à plus de 2 Ghz et les performances de ce processeur s’approchent dangereusement des processeurs Intel de ces dernières années.

avatar rolmeyer | 

Moi je vois le verre à moitié plein, ça veut dire qu'il n'y a aucune raison de changer de Mac, les sauts de perf étant réduits. En dehors d'encodage vidéo oū je tape 100% pour le reste j'utilise très très peu de puissance de mon Mac, sauf le MacBook 12, lui est à 50-60 % tout en restant tiède, silencieux et avec une bonne autonomie.

avatar Goldevil | 

La vitesse des processeur en terme de fréquence n'a pas changé mais d'autres aspects ont changé de manière régulière: stockage, SSD, mémoire, réseau, USB...

Un ordinateur actuel est bien plus performant à fréquence égale qu'un d'il y a 10 ans.

avatar MacGruber | 

Ah ! Les nanotubes ne sont pas encore pour demain

avatar C1rc3@0rc | 

@MacGruber

Il y a plusieurs options pour depasser les problemes actuels qui sont liés au materiaux: le silicium, tout en gardant les principes classiques.

Seulement aucune de ces solutions n'a le niveau de rentabilité du bon vieux silicium.

Et de plus, on le voit avec ARM et Nvidia, le travail intelligent sur l'architecture permet encore de belles marges de progressions en terme de puissance et d'efficacité energetiques. Faut juste pas avoir des architectures pourries et archaiques comme le x86, qui a epuisé tous les subterfuges et s'est plantée dans le mur.

Ce qui est amusant, c'est que pour Intel le moyen de maintenir ses ventes va passer par une baisse des prix de ventes, vu qu'Intel est largué sur la gravure, le nombre de Core, la frequence, la consommation, et bientot la puissance.
Et si Intel doit baisser ses prix pour vendre ses x86, y a AMD en face qui arrive - 10 ans apres certes - plus ou moins a egalité mais a des couts un peu plus bas de production (AMD n'est plus un fondeur...).

Donc Intel est coincé: il doit vendre a plus bas prix et en plus "fondre" de l'ARM pour les autres, histoire d'amortir ses usines 14nm et de compenser le cout de production d'un x86 dont le taux de dechets n'est plus compressible...

Ironie de l'hisoire donc, c'est la production d'ARM qui risque de maintenir en vie le x86 encore quelques annees!

avatar Pousse | 

"Imaginez donc, un processeur à 10 Ghz qui ne consomme même pas un volt en 2005 !"

Euh, j'ai de l'imagination, mais une consommation en volts ... c'est comme une distance en litres, j'ai du mal à voir.

Quoique la distance en litres, chez les pochetrons, ça peut avoir du sens

avatar oomu | 

"ça faisait déjà bien deux litres de pinard que mon beauf et moi on roulait quand l'autre con nous est entré dedans... enfin, l'autre con, je dis ça, mais il roulait à droite, en respectant la vitesse et il est mort..."

avatar thebarty | 

Merci, tu me fais partir en weekend avec le sourire !

avatar Kaserskin | 

Pourquoi on ne voit pas se démocratiser les processeurs ayant une fréquence > 4 Ghz ces dernières années ? J'ai l'impression qu'on se focalise sur la finesse de gravure pour réduire la consommation, mais pour les fixes on pourrait pas créer des proc. 5-6 ghz à conso. raisonnable de nos jours ? Ou les GHz ne sont plus du tout le facteur principal de puissance de calcul avec le nombre de cores ?

avatar ErGo_404 | 

L'augmentation des Ghz fait rapidement augmenter la température, or les ordinateurs habituels sont faits pour tourner dans toutes les conditions.
En tant que particulier tu peux installer un système de refroidissement efficace qui te permettra de faire monter à 4Ghz un des derniers Core i7. Mais sur un système de série, c'est plus facile de garantir le fonctionnement pour tout le monde en laissant la fréquence de base à 2,5 ou 3Ghz.

avatar romainB84 | 

@Kaserskin

C'est surtout une histoire de dissipation thermique !!!
Plus tu montes en fréquence, plus le processeur monte en température de manière exponentielle.
Si c'est pour avoir une machine de 5Ghz qui monte à 200°, ça va être difficile à gérer ?

avatar C1rc3@0rc | 

@ Kaserskin

A cause du mur des 4ghz !

Intel se basait sur la conjecture de Moore: doubler le nombre de transistor tous les 18 mois a consommation egale. Cela voulait dire que le transistor devait diminuer en taille dans le meme temps, et Intel pensait - ou voulait qu'on pense - que plus le transistor était petit moins il consommait et moins il chauffait.

C'est le credo qui a presidé Intel et la conception du x86 des le début et qui valait jusqu'au Pentium 4.
Ce qui fait que le x86 est une brute dont la puissance dépend de la fréquence et de la finesse de gravure.

Cette équation était fausse, et lorsque le x86 a atteint les 4Ghz, Intel a du reconnaître que la température croissait de manière incontrôlable.

Alors Intel - avec un business model monopolistique assis sur le x86 - a decidé de mentir pour preserver son business model!
La course a la frequence a ete remplacé par la course au multicore. Intel annoncait des processeurs a 64 core dans les PC, sauf que pour un PC ça ne sert a rien de faire plus de 6 ou 8 core.
Apres ce nouveau mur, Intel a basculer sur celui de la finesse de gravure. En plus d'etre cynique, cela etait aussi un echec, car on sait depuis les annees 90 qu'en dessous des 18 nm les gains energetiques sont anecdotiques et qu'a cause des effets quantiques les performances des processeurs diminuent!
De plus sous 20nm les couts de productions explosent.

Bref Intel trompe sont monde avec tout un tas de subterfuges honteux depuis les annees 70, mais sa puissance de communication et le monopole Wintel ont évité le naufrage du x86 jusqu'au debut 2010.
Depuis, ce sont les ARM qui sont innovants et démontrent que c'est l'intelligence de l'architecture qui donne de la puissance, pas la finesse de gravure.

Intel a été battu sur la finesse par Samsung, maintenant par TSMC, bientôt par GF et ensuite ce sera la chinois.
Le probleme c'est encore et toujours le x86: cette architecture a toujours ete un fake! et a pourri l'evolution informatique depuis plus de 30 ans!

avatar Stardustxxx | 

C1rc3@0rc
"car on sait depuis les annees 90 qu'en dessous des 18 nm les gains energetiques sont anecdotiques et qu'a cause des effets quantiques les performances des processeurs diminuent!"

En 1999, le process commercial etait a 180 nm... Difficules de prevoir ce qui va se passer a 18 nm...

"Bref Intel trompe sont monde avec tout un tas de subterfuges honteux depuis les annees 70, "
Tu en fumes de la bonne.
Osez comparer un processeur x86 des annees 70 avec un processeur moderne, c'est juste nawak.

"Intel a ete battu sur la finesse par Samsung, maintenant pas TSMC, bientot par GF et ensuite ce sera la chinois. Le probleme c'est encore et toujours le x86: cette architecture a toujours ete un fake! et a pourri l'evolution informatique depuis plus de 30 ans!"
Intel n'a pas ete battu, il a toujours le meilleurs process.
Le 14 nm de Intel utilise un backplane a 14 nm, le 14nm FinFet de TSMC utilse un backplane a 20 nm.
Et a 10 nm, TSMC utilise un backplace a 14 nm (ce qui fait que le 10 nm de TSMC est equivalent au 14 nm Intel).
Plus d'info ici, si tu veux vraiment t'informer : http://wccftech.com/intel-losing-process-lead-analysis-7nm-2022/

avatar thebarty | 

@Stardustxxx

Ne te prends pas la tête avec Circegrosnaze. C'est un mytho qui pense détenir la science infuse. Tout cela depuis qu'il s'est royalement planté avec sa haine de l'AppleWatch et bien d'autres prédictions minables.

avatar Stardustxxx | 

@thebarty
C'est bien de prouver sa mythomanie de temps en temps ;)
A chaque post c'est de plus en plus incohérent.

avatar C1rc3@0rc | 

@Stardustxxx

«En 1999, le process commercial etait a 180 nm... Difficules de prevoir ce qui va se passer a 18 nm...»

N'importe quoi!

Tu parles de production commerciale pour expliquer qu'il etait impossible de prevoir les principes de la physiques qui allaient poser probleme dans un futur tres proche! Et en plus tu insinues l'absence d'etudes en labo, que ce soit en sciences fondamentales ou appliquées... Bravo!

Palier de gravure commerciale de microsprocesseurs:
1999 => 130nm
2003 => 90nm
2005 => 45nm
2008 => 32nm
2013 => 22nm

Donc en moins de 15 ans l'industrie est passée de 130nm a 22nm, soit un palier de production commerciale tout les 3 ans en moyenne!

15 ans entre la recherche fondamentale et la production industrielle de masse c'est tres court, et en plus on parle de ligne de production dont les couts se comptent en milliards de dollars - celle a 14nm tapent dans les 8 milliards - !
Faut que t'imagines qu'une fois tous les problemes resolus en labo, ce qui peut prendre quelques annees..., faut ensuite que les chercheurs et ingenieurs developpent le process industriel, parce que passer d'une production experimentale ou la victoire c'est quand on a un prototype fonctionnel a la production de masse dont le taux d'echec (dechets) est suffisamment bas pour que ce soit commercialement rentable, ça demande du boulot... et du temps.
Ensuite une fois que le process est fonctionnel, va falloir convaincre les financiers que construire des lignes de productions de plusieurs milliards c'est rentable, ça prend aussi du temps. Apres, faut negocier avec les fournisseurs a la fois les prix et les disponibilités, parce que dans le secteur c'est pas le chinois du coin qui peut faire l'affaire pour depanner... ça prend aussi des mois voire des annees quand il faut developper des machines specifiques! Ensuite une fois tout ça en place, faut lancer la preproduction histoire de maitriser la ligne de prod et optimiser sa qualité de production... minimum 1 an... Et la on parle du domaine de l'ingenierie de production uniquement!
Bref Si tu crois qu'un graveur sait pas 10 ans a l'avance ou il s'engage, c'est que tu ignore tout du domaine industriel.

Pour info, on trouve des 1993 des publications dans IEEE concernant les transistors sur gallium-arsenide permettant de depasser les limites du silicium qui etaient mise en evidence depuis un moment deja - on parle de solutions hein!
Les publications d'etude de l'effet tunnel dans les semiconducteurs date de 1957!
Et les lois de la physiques - dont celles de la thermodynamique - ne sont pas apparues 15 a 20 ans avant la commercialisation des x86 a 22nm !

avatar Stardustxxx | 

@C1rc3@0rc
"Bref Si tu crois qu'un graveur sait pas 10 ans a l'avance ou il s'engage, c'est que tu ignore tout du domaine industriel."
Pas du tout, je sais très bien que chaque fondeur a ses roadmap a long terme, ils connaissent les obstacles industriels a franchir, ce qui ne veut pas dire qu'ils ont deja les toutes solutions aux problèmes qu'ils vont rencontrer, car ils ne connaissant pas a l'avance tous les problèmes qu'ils vont rencontrer.
Il y a une différence entre le planning et l'exécution, c'est bien joli d'avoir fait une gravure en laboratoire, c'est autre chose que d'avoir un process industriel. Rappelle moi le nombre de fois ou les industriels ont été en retard par rapport a leur annonces, justement Intel a plusieurs fois eu des problèmes de yield sur certains process.

"Pour info, on trouve des 1993 des publications dans IEEE concernant les transistors sur gallium-arsenide permettant de depasser les limites du silicium qui etaient mise en evidence depuis un moment deja - on parle de solutions hein!"
Pour ton info en 1993, j'étudiais justement les semi conducteurs : ingénieur en physique, tu ne m'apprends rien du tout, GaAs fait parti des semiconducteur que l'on etudie. J'ai aussi fait de la gravure a 130 micron en travaux pratique ;)
Le Silicium a des avantages et des inconvénients, tout comme le GaAs, t'inquiéte pas si le GaAs était si avantageux par rapport au Silicium, et bien l'industrie aurait switcher.

"Et les lois de la physiques - dont celles de la thermodynamique - ne sont pas apparues 15 a 20 ans avant la commercialisation des x86 a 22nm !"
Visiblement tu ne comprends pas la différence entre la théorie et l'ingénierie.

avatar C1rc3@0rc | 

«"Bref Intel trompe sont monde avec tout un tas de subterfuges honteux depuis les annees 70, "
Tu en fumes de la bonne.
Osez comparer un processeur x86 des annees 70 avec un processeur moderne, c'est juste nawak.»

Dans le grand n'importe quoi, tu illustres bien ton niveau de champion, avec celui de la mauvaise fois en plus. C
Commences par apprendre a lire, j'ai ecrit:
«Bref Intel trompe sont monde avec tout un tas de subterfuges honteux depuis les annees 70»

Ca veut pas dire que les processeurs Intel n'ont pas evolués, ça veut dire qu'Intel se comporte comme un arnaqueur et un dictateur et que ça ne change pas depuis le debut!

Dans les faites le principe de l'architecture x86 n'a pas changé depuis sa conception, mais sa realisation elle a changé, au point que le moteur du x86 depuis le Pentium 3 c'est plus un CISC, mais un RISC... parce que oui, l'acrchitecture CISC s'est pris le mur et qu'Intel - plutot que de lacher le x86 a la rue - a decider de mettre un etage de plus - conversion CISC <-> RISC - et un moteur RISC, ah oui parce que c'est la solution qu'AMD avait adopté et qu'Intel etait en train de perdre le terrain...
Et depuis ce magistral tour de passe-passe, Intel compense toujours plus les deficiences du x86 avec des coprocesseurs - nommées unité de traitement - qui n'ont rien a voir avec du x86 et l'integre dans le processeur...
Aujourd'hui le core x86 a tout le loisir de roupiller pendant que les - unités de traitements - font le boulot! Et ça vaut pour la crytpo, le calcul mathematique, le calcul vestoriel, le traitement graphique, le traitement de signal, la gestion d'alimentation,... Intel a meme du etendre le jeu d'instructions x86 au fur et a mesure, et pas qu'un peu! Sauf que inefficacité congenitale du x86 et sa rigidité bloquent l'evolution logicielle, parce qu'evidement si Intet a conservé coute que coute l'etage x86 c'est pour une seule raison: maintien du monopole!

avatar Stardustxxx | 

@C1rc3@0rc
"Sauf que inefficacité congenitale du x86 et sa rigidité bloquent l'evolution logicielle, parce qu'evidement si Intet a conservé coute que coute l'etage x86 c'est pour une seule raison: maintien du monopole!"
Oui c'est sur le x86 a pourri l'évolution logicielle. Quand on compare DOS et Windows 10, on s'en rend bien compte. Quand on sait que Linux a été crée sur x86, ...
Franchement il faut que tu nous dises ce que tu prends, ca a l'air très puissant.

avatar C1rc3@0rc | 

«""Intel a ete battu sur la finesse par Samsung, maintenant pas TSMC, bientot par GF et ensuite ce sera la chinois. Le probleme c'est encore et toujours le x86: cette architecture a toujours ete un fake! et a pourri l'evolution informatique depuis plus de 30 ans!"
Intel n'a pas ete battu, il a toujours le meilleurs process.
Le 14 nm de Intel utilise un backplane a 14 nm, le 14nm FinFet de TSMC utilse un backplane a 20 nm.
Et a 10 nm, TSMC utilise un backplace a 14 nm (ce qui fait que le 10 nm de TSMC est equivalent au 14 nm Intel)."»

Encore du grand n'importe quoi dans tes interprétations fumeuses!

TSMC a fait des choix technologiques differents d'Intel, a la bonne heur!
Meme si le backbone a est a un palier superieur, ça ne change pas qu'il faut maitriser la gravure au palier inferieure et la realisation...
Et pourquoi Intel ne fait pas pareil, hein?

Pareil pour le FinFET qui permet de reduire la consommation...
Le fait est qu'en terme de production, TSMC et Samsung ont de process fonctionnels, les processeurs qu'ils sortent tiennent la route et leurs specifications alors qu'Intel se bat toujours pour reduire les taux de dechets et ne tient pas ses delais ni les specifications !

En plus techniquement, comme je le repete depuis des lustres, sous le 18 nm, il n'y a que l'interet de l'economie de cout a grande echelle qui justifie de descendre en finesse de gravure, economie qui se fait sur le materiaux en moins necessaire.
TSMC fait des economies avec son approche, super... les ARM gravés doublent leurs performances a chaque generations en conservant, voire ameliorant l\efficacité energetique, super...
Et Intel? de -5% a +5% en performance et une efficacité energetique qui a pas bougé en 10ans (par contre Intel a su mettre en place un systeme de gestion electrique qui ralentie et arrete tout ce qui peut l'etre, donc un x86 2016 ça pompe moins qu'un x86 de 2006, c'est pas de l'efficacité energetique, c'est de l'efficacité d'alimentation: le x86 gaspille moins aujourd'hui qu'il y a 10 ans c'est tout)

avatar Stardustxxx | 

@C1rc3@0rc
"Encore du grand n'importe quoi dans tes interprétations fumeuses!

TSMC a fait des choix technologiques differents d'Intel, a la bonne heur!
Meme si le backbone a est a un palier superieur, ça ne change pas qu'il faut maitriser la gravure au palier inferieure et la realisation...
Et pourquoi Intel ne fait pas pareil, hein?"

Parce qu'ils ont fait des choix technologiques différents. Tout ce que je dis, c'est que chacun mesure les choses a ca facon,

"En plus techniquement, comme je le repete depuis des lustres, sous le 18 nm"
Et alors ce n'est pas parce que tu répêtes quelque chose de faux que ca va devenir vrai a un moment.

"par contre Intel a su mettre en place un systeme de gestion electrique qui ralentie et arrete tout ce qui peut l'etre, donc un x86 2016 ça pompe moins qu'un x86 de 2006, c'est pas de l'efficacité energetique, c'est de l'efficacité d'alimentation: le x86 gaspille moins aujourd'hui qu'il y a 10 ans c'est tout"

Et c'est quoi ce concept pompeux d'éfficacité d'alimentation, tu peux préciser stp, nous donner des références peut-etre, afin que nous pauvres mortel soient capable de comprendre tout cela.

avatar fte | 

@C1rc3@0rc

J'allais répondre, mais devant l'ampleur de la tâche je capitule.

En fait, Circee et Intel dans le même post se résume à critique virulente et pile fumante de bullshit.

Je te laisse à tes délires.

avatar macfredx | 

@fte

Personnellement j'ai lâché au milieu de son premier post... ?

avatar Paquito06 | 

La course a la finesse c'est pas que chez Apple ?
Blague a part, les ingenieurs Intel doivent faire face a des proprietes physiques difficile a surmonter, voyez ce que ca donne avec les batteries Samsung. C'est pareil. Ou encore en optique, on sait faire du tres petit dans les smartphones, mais on vend toujours en photo des optiques imposantes, la tricherie avec le numerique ne regle pas tout. On va bien y parvenir au 10nm ??

avatar ErGo_404 | 

https://www.engadget.com/2017/02/08/harvard-metalenses-closer-to-glass/

Peut-être bientôt la fin du besoin d'avoir des optiques grosses et lourdes. Bien qu'encore à l'état de projet de recherche, cette technique permettra de faire des optiques hyper légères, bon marché et bien plus précises que celles que l'on a en verre aujourd'hui.

avatar Anass | 

Petite question, peut etre bete: pourquoi Apple parviendrait à 10nm des cette annee avec les ARM quand Intel n'arrive pas à cette finesse avec ses processeurs ? Quelle est la difference ?

Pages

CONNEXION UTILISATEUR