Intel serait encore bloqué en 14 nm pour Cannon Lake

Nicolas Furno |

De façon réaliste, on devrait voir des processeurs basés sur NetBurst atteindre les 8 à 10 Ghz dans les cinq prochaines années.

C’est ainsi que le site AnandTech présentait cette nouvelle architecture Intel à la fin de l’année 2000. À l’époque, la toute nouvelle architecture inaugurée par le fondeur pour ses Pentium 4 promettait beaucoup et les prévisions calquées sur les années d’évolutions du Pentium III faisaient rêver. Imaginez donc, un processeur à 10 Ghz qui nécessite moins d'un volt en 2005 !

Cliquer pour agrandir

Inutile de vous dire que l’histoire a largement donné tort à AnandTech et à Intel. Les énormes progrès suivis depuis les débuts de l’informatique ont rapidement rencontré un mur : la consommation électrique et la dissipation thermique des Pentium 4 a augmenté de façon exponentielle. Si bien que l’entreprise n’a pas tenu son objectif et a même été contrainte d’abandonner la nouvelle architecture pour les ordinateurs portables.

Dès 2003, trois ans seulement après les prédictions d’AnandTech, les Pentium M sortaient pour les ordinateurs portables. Beaucoup moins gourmands, ils étaient basés sur une architecture dérivée de P6, celle des Pentium III. En 2006, Intel présente une nouvelle architecture, nommée Core, qui est toujours dérivée de celle-ci, mais modernisée notamment pour gérer plusieurs cœurs. Depuis, de nombreuses générations se sont succédées et les changements sont toujours plus réduits.

Le fondeur n’arrive même plus à suivre son rythme Tick-Tock où une génération sur deux seulement avançait vraiment. Kaby Lake est la troisième génération d’affilée gravée à 14 nm et sans évolutions notables. On attendait mieux pour la prochaine, nommée Cannon Lake, mais la huitième génération des Core devrait encore rester à 14 nm au lieu des 10 promis à l’origine par Intel.

Kaby Lake, la dernière génération de processeur Intel.

Au mieux, Intel devrait pouvoir passer certains modèles réservés aux ordinateurs mobiles à 10 nm, mais la gamme dans son ensemble devrait encore stagner sur le plan des performances. Le problème, c’est que le constructeur semble désormais incapable de tenir ses promesses, que ce soit en termes de fonctions ou bien de délai. Le passage à 10 et même à 7 nm était prévu il y a deux ans pour la fin de l’année 2016, mais il faudra sans doute attendre 2018 au mieux.

Le chemin parcouru depuis 2000 reste impressionnant sur certains points. Les meilleurs processeurs d’alors tournaient autour de 1 Ghz seulement et ils étaient gravés à 180 nm, près de treize fois plus épais qu’aujourd'hui. Malheureusement pour Intel (et pour nous), les progrès phénoménaux des années 1990 n’ont pas perduré et la difficulté pour obtenir des améliorations s’est révélée exponentielle…

Pendant ce temps, les processeurs ARM de nos smartphones progressent encore de façon significative tous les ans. Le processeur de l’Apple A10 qui équipe l’iPhone 7 est gravé en 16 nm et devrait passer à 10 nm dès cette année. Les deux cœurs tournent à plus de 2 Ghz et les performances de ce processeur s’approchent dangereusement des processeurs Intel de ces dernières années.

avatar rolmeyer (non vérifié) | 

Moi je vois le verre à moitié plein, ça veut dire qu'il n'y a aucune raison de changer de Mac, les sauts de perf étant réduits. En dehors d'encodage vidéo oū je tape 100% pour le reste j'utilise très très peu de puissance de mon Mac, sauf le MacBook 12, lui est à 50-60 % tout en restant tiède, silencieux et avec une bonne autonomie.

avatar Goldevil | 

La vitesse des processeur en terme de fréquence n'a pas changé mais d'autres aspects ont changé de manière régulière: stockage, SSD, mémoire, réseau, USB...

Un ordinateur actuel est bien plus performant à fréquence égale qu'un d'il y a 10 ans.

avatar MacGruber | 

Ah ! Les nanotubes ne sont pas encore pour demain

avatar C1rc3@0rc | 

@MacGruber

Il y a plusieurs options pour depasser les problemes actuels qui sont liés au materiaux: le silicium, tout en gardant les principes classiques.

Seulement aucune de ces solutions n'a le niveau de rentabilité du bon vieux silicium.

Et de plus, on le voit avec ARM et Nvidia, le travail intelligent sur l'architecture permet encore de belles marges de progressions en terme de puissance et d'efficacité energetiques. Faut juste pas avoir des architectures pourries et archaiques comme le x86, qui a epuisé tous les subterfuges et s'est plantée dans le mur.

Ce qui est amusant, c'est que pour Intel le moyen de maintenir ses ventes va passer par une baisse des prix de ventes, vu qu'Intel est largué sur la gravure, le nombre de Core, la frequence, la consommation, et bientot la puissance.
Et si Intel doit baisser ses prix pour vendre ses x86, y a AMD en face qui arrive - 10 ans apres certes - plus ou moins a egalité mais a des couts un peu plus bas de production (AMD n'est plus un fondeur...).

Donc Intel est coincé: il doit vendre a plus bas prix et en plus "fondre" de l'ARM pour les autres, histoire d'amortir ses usines 14nm et de compenser le cout de production d'un x86 dont le taux de dechets n'est plus compressible...

Ironie de l'hisoire donc, c'est la production d'ARM qui risque de maintenir en vie le x86 encore quelques annees!

avatar Pousse | 

"Imaginez donc, un processeur à 10 Ghz qui ne consomme même pas un volt en 2005 !"

Euh, j'ai de l'imagination, mais une consommation en volts ... c'est comme une distance en litres, j'ai du mal à voir.

Quoique la distance en litres, chez les pochetrons, ça peut avoir du sens

avatar oomu | 

"ça faisait déjà bien deux litres de pinard que mon beauf et moi on roulait quand l'autre con nous est entré dedans... enfin, l'autre con, je dis ça, mais il roulait à droite, en respectant la vitesse et il est mort..."

avatar thebarty | 

Merci, tu me fais partir en weekend avec le sourire !

avatar Kaserskin | 

Pourquoi on ne voit pas se démocratiser les processeurs ayant une fréquence > 4 Ghz ces dernières années ? J'ai l'impression qu'on se focalise sur la finesse de gravure pour réduire la consommation, mais pour les fixes on pourrait pas créer des proc. 5-6 ghz à conso. raisonnable de nos jours ? Ou les GHz ne sont plus du tout le facteur principal de puissance de calcul avec le nombre de cores ?

avatar ErGo_404 | 

L'augmentation des Ghz fait rapidement augmenter la température, or les ordinateurs habituels sont faits pour tourner dans toutes les conditions.
En tant que particulier tu peux installer un système de refroidissement efficace qui te permettra de faire monter à 4Ghz un des derniers Core i7. Mais sur un système de série, c'est plus facile de garantir le fonctionnement pour tout le monde en laissant la fréquence de base à 2,5 ou 3Ghz.

avatar cecile_aelita | 

@Kaserskin

C'est surtout une histoire de dissipation thermique !!!
Plus tu montes en fréquence, plus le processeur monte en température de manière exponentielle.
Si c'est pour avoir une machine de 5Ghz qui monte à 200°, ça va être difficile à gérer ?

avatar C1rc3@0rc | 

@ Kaserskin

A cause du mur des 4ghz !

Intel se basait sur la conjecture de Moore: doubler le nombre de transistor tous les 18 mois a consommation egale. Cela voulait dire que le transistor devait diminuer en taille dans le meme temps, et Intel pensait - ou voulait qu'on pense - que plus le transistor était petit moins il consommait et moins il chauffait.

C'est le credo qui a presidé Intel et la conception du x86 des le début et qui valait jusqu'au Pentium 4.
Ce qui fait que le x86 est une brute dont la puissance dépend de la fréquence et de la finesse de gravure.

Cette équation était fausse, et lorsque le x86 a atteint les 4Ghz, Intel a du reconnaître que la température croissait de manière incontrôlable.

Alors Intel - avec un business model monopolistique assis sur le x86 - a decidé de mentir pour preserver son business model!
La course a la frequence a ete remplacé par la course au multicore. Intel annoncait des processeurs a 64 core dans les PC, sauf que pour un PC ça ne sert a rien de faire plus de 6 ou 8 core.
Apres ce nouveau mur, Intel a basculer sur celui de la finesse de gravure. En plus d'etre cynique, cela etait aussi un echec, car on sait depuis les annees 90 qu'en dessous des 18 nm les gains energetiques sont anecdotiques et qu'a cause des effets quantiques les performances des processeurs diminuent!
De plus sous 20nm les couts de productions explosent.

Bref Intel trompe sont monde avec tout un tas de subterfuges honteux depuis les annees 70, mais sa puissance de communication et le monopole Wintel ont évité le naufrage du x86 jusqu'au debut 2010.
Depuis, ce sont les ARM qui sont innovants et démontrent que c'est l'intelligence de l'architecture qui donne de la puissance, pas la finesse de gravure.

Intel a été battu sur la finesse par Samsung, maintenant par TSMC, bientôt par GF et ensuite ce sera la chinois.
Le probleme c'est encore et toujours le x86: cette architecture a toujours ete un fake! et a pourri l'evolution informatique depuis plus de 30 ans!

avatar Stardustxxx | 

C1rc3@0rc
"car on sait depuis les annees 90 qu'en dessous des 18 nm les gains energetiques sont anecdotiques et qu'a cause des effets quantiques les performances des processeurs diminuent!"

En 1999, le process commercial etait a 180 nm... Difficules de prevoir ce qui va se passer a 18 nm...

"Bref Intel trompe sont monde avec tout un tas de subterfuges honteux depuis les annees 70, "
Tu en fumes de la bonne.
Osez comparer un processeur x86 des annees 70 avec un processeur moderne, c'est juste nawak.

"Intel a ete battu sur la finesse par Samsung, maintenant pas TSMC, bientot par GF et ensuite ce sera la chinois. Le probleme c'est encore et toujours le x86: cette architecture a toujours ete un fake! et a pourri l'evolution informatique depuis plus de 30 ans!"
Intel n'a pas ete battu, il a toujours le meilleurs process.
Le 14 nm de Intel utilise un backplane a 14 nm, le 14nm FinFet de TSMC utilse un backplane a 20 nm.
Et a 10 nm, TSMC utilise un backplace a 14 nm (ce qui fait que le 10 nm de TSMC est equivalent au 14 nm Intel).
Plus d'info ici, si tu veux vraiment t'informer : http://wccftech.com/intel-losing-process-lead-analysis-7nm-2022/

avatar thebarty | 

@Stardustxxx

Ne te prends pas la tête avec Circegrosnaze. C'est un mytho qui pense détenir la science infuse. Tout cela depuis qu'il s'est royalement planté avec sa haine de l'AppleWatch et bien d'autres prédictions minables.

avatar Stardustxxx | 

@thebarty
C'est bien de prouver sa mythomanie de temps en temps ;)
A chaque post c'est de plus en plus incohérent.

avatar C1rc3@0rc | 

@Stardustxxx

«En 1999, le process commercial etait a 180 nm... Difficules de prevoir ce qui va se passer a 18 nm...»

N'importe quoi!

Tu parles de production commerciale pour expliquer qu'il etait impossible de prevoir les principes de la physiques qui allaient poser probleme dans un futur tres proche! Et en plus tu insinues l'absence d'etudes en labo, que ce soit en sciences fondamentales ou appliquées... Bravo!

Palier de gravure commerciale de microsprocesseurs:
1999 => 130nm
2003 => 90nm
2005 => 45nm
2008 => 32nm
2013 => 22nm

Donc en moins de 15 ans l'industrie est passée de 130nm a 22nm, soit un palier de production commerciale tout les 3 ans en moyenne!

15 ans entre la recherche fondamentale et la production industrielle de masse c'est tres court, et en plus on parle de ligne de production dont les couts se comptent en milliards de dollars - celle a 14nm tapent dans les 8 milliards - !
Faut que t'imagines qu'une fois tous les problemes resolus en labo, ce qui peut prendre quelques annees..., faut ensuite que les chercheurs et ingenieurs developpent le process industriel, parce que passer d'une production experimentale ou la victoire c'est quand on a un prototype fonctionnel a la production de masse dont le taux d'echec (dechets) est suffisamment bas pour que ce soit commercialement rentable, ça demande du boulot... et du temps.
Ensuite une fois que le process est fonctionnel, va falloir convaincre les financiers que construire des lignes de productions de plusieurs milliards c'est rentable, ça prend aussi du temps. Apres, faut negocier avec les fournisseurs a la fois les prix et les disponibilités, parce que dans le secteur c'est pas le chinois du coin qui peut faire l'affaire pour depanner... ça prend aussi des mois voire des annees quand il faut developper des machines specifiques! Ensuite une fois tout ça en place, faut lancer la preproduction histoire de maitriser la ligne de prod et optimiser sa qualité de production... minimum 1 an... Et la on parle du domaine de l'ingenierie de production uniquement!
Bref Si tu crois qu'un graveur sait pas 10 ans a l'avance ou il s'engage, c'est que tu ignore tout du domaine industriel.

Pour info, on trouve des 1993 des publications dans IEEE concernant les transistors sur gallium-arsenide permettant de depasser les limites du silicium qui etaient mise en evidence depuis un moment deja - on parle de solutions hein!
Les publications d'etude de l'effet tunnel dans les semiconducteurs date de 1957!
Et les lois de la physiques - dont celles de la thermodynamique - ne sont pas apparues 15 a 20 ans avant la commercialisation des x86 a 22nm !

avatar Stardustxxx | 

@C1rc3@0rc
"Bref Si tu crois qu'un graveur sait pas 10 ans a l'avance ou il s'engage, c'est que tu ignore tout du domaine industriel."
Pas du tout, je sais très bien que chaque fondeur a ses roadmap a long terme, ils connaissent les obstacles industriels a franchir, ce qui ne veut pas dire qu'ils ont deja les toutes solutions aux problèmes qu'ils vont rencontrer, car ils ne connaissant pas a l'avance tous les problèmes qu'ils vont rencontrer.
Il y a une différence entre le planning et l'exécution, c'est bien joli d'avoir fait une gravure en laboratoire, c'est autre chose que d'avoir un process industriel. Rappelle moi le nombre de fois ou les industriels ont été en retard par rapport a leur annonces, justement Intel a plusieurs fois eu des problèmes de yield sur certains process.

"Pour info, on trouve des 1993 des publications dans IEEE concernant les transistors sur gallium-arsenide permettant de depasser les limites du silicium qui etaient mise en evidence depuis un moment deja - on parle de solutions hein!"
Pour ton info en 1993, j'étudiais justement les semi conducteurs : ingénieur en physique, tu ne m'apprends rien du tout, GaAs fait parti des semiconducteur que l'on etudie. J'ai aussi fait de la gravure a 130 micron en travaux pratique ;)
Le Silicium a des avantages et des inconvénients, tout comme le GaAs, t'inquiéte pas si le GaAs était si avantageux par rapport au Silicium, et bien l'industrie aurait switcher.

"Et les lois de la physiques - dont celles de la thermodynamique - ne sont pas apparues 15 a 20 ans avant la commercialisation des x86 a 22nm !"
Visiblement tu ne comprends pas la différence entre la théorie et l'ingénierie.

avatar C1rc3@0rc | 

«"Bref Intel trompe sont monde avec tout un tas de subterfuges honteux depuis les annees 70, "
Tu en fumes de la bonne.
Osez comparer un processeur x86 des annees 70 avec un processeur moderne, c'est juste nawak.»

Dans le grand n'importe quoi, tu illustres bien ton niveau de champion, avec celui de la mauvaise fois en plus. C
Commences par apprendre a lire, j'ai ecrit:
«Bref Intel trompe sont monde avec tout un tas de subterfuges honteux depuis les annees 70»

Ca veut pas dire que les processeurs Intel n'ont pas evolués, ça veut dire qu'Intel se comporte comme un arnaqueur et un dictateur et que ça ne change pas depuis le debut!

Dans les faites le principe de l'architecture x86 n'a pas changé depuis sa conception, mais sa realisation elle a changé, au point que le moteur du x86 depuis le Pentium 3 c'est plus un CISC, mais un RISC... parce que oui, l'acrchitecture CISC s'est pris le mur et qu'Intel - plutot que de lacher le x86 a la rue - a decider de mettre un etage de plus - conversion CISC <-> RISC - et un moteur RISC, ah oui parce que c'est la solution qu'AMD avait adopté et qu'Intel etait en train de perdre le terrain...
Et depuis ce magistral tour de passe-passe, Intel compense toujours plus les deficiences du x86 avec des coprocesseurs - nommées unité de traitement - qui n'ont rien a voir avec du x86 et l'integre dans le processeur...
Aujourd'hui le core x86 a tout le loisir de roupiller pendant que les - unités de traitements - font le boulot! Et ça vaut pour la crytpo, le calcul mathematique, le calcul vestoriel, le traitement graphique, le traitement de signal, la gestion d'alimentation,... Intel a meme du etendre le jeu d'instructions x86 au fur et a mesure, et pas qu'un peu! Sauf que inefficacité congenitale du x86 et sa rigidité bloquent l'evolution logicielle, parce qu'evidement si Intet a conservé coute que coute l'etage x86 c'est pour une seule raison: maintien du monopole!

avatar Stardustxxx | 

@C1rc3@0rc
"Sauf que inefficacité congenitale du x86 et sa rigidité bloquent l'evolution logicielle, parce qu'evidement si Intet a conservé coute que coute l'etage x86 c'est pour une seule raison: maintien du monopole!"
Oui c'est sur le x86 a pourri l'évolution logicielle. Quand on compare DOS et Windows 10, on s'en rend bien compte. Quand on sait que Linux a été crée sur x86, ...
Franchement il faut que tu nous dises ce que tu prends, ca a l'air très puissant.

avatar C1rc3@0rc | 

«""Intel a ete battu sur la finesse par Samsung, maintenant pas TSMC, bientot par GF et ensuite ce sera la chinois. Le probleme c'est encore et toujours le x86: cette architecture a toujours ete un fake! et a pourri l'evolution informatique depuis plus de 30 ans!"
Intel n'a pas ete battu, il a toujours le meilleurs process.
Le 14 nm de Intel utilise un backplane a 14 nm, le 14nm FinFet de TSMC utilse un backplane a 20 nm.
Et a 10 nm, TSMC utilise un backplace a 14 nm (ce qui fait que le 10 nm de TSMC est equivalent au 14 nm Intel)."»

Encore du grand n'importe quoi dans tes interprétations fumeuses!

TSMC a fait des choix technologiques differents d'Intel, a la bonne heur!
Meme si le backbone a est a un palier superieur, ça ne change pas qu'il faut maitriser la gravure au palier inferieure et la realisation...
Et pourquoi Intel ne fait pas pareil, hein?

Pareil pour le FinFET qui permet de reduire la consommation...
Le fait est qu'en terme de production, TSMC et Samsung ont de process fonctionnels, les processeurs qu'ils sortent tiennent la route et leurs specifications alors qu'Intel se bat toujours pour reduire les taux de dechets et ne tient pas ses delais ni les specifications !

En plus techniquement, comme je le repete depuis des lustres, sous le 18 nm, il n'y a que l'interet de l'economie de cout a grande echelle qui justifie de descendre en finesse de gravure, economie qui se fait sur le materiaux en moins necessaire.
TSMC fait des economies avec son approche, super... les ARM gravés doublent leurs performances a chaque generations en conservant, voire ameliorant l\efficacité energetique, super...
Et Intel? de -5% a +5% en performance et une efficacité energetique qui a pas bougé en 10ans (par contre Intel a su mettre en place un systeme de gestion electrique qui ralentie et arrete tout ce qui peut l'etre, donc un x86 2016 ça pompe moins qu'un x86 de 2006, c'est pas de l'efficacité energetique, c'est de l'efficacité d'alimentation: le x86 gaspille moins aujourd'hui qu'il y a 10 ans c'est tout)

avatar Stardustxxx | 

@C1rc3@0rc
"Encore du grand n'importe quoi dans tes interprétations fumeuses!

TSMC a fait des choix technologiques differents d'Intel, a la bonne heur!
Meme si le backbone a est a un palier superieur, ça ne change pas qu'il faut maitriser la gravure au palier inferieure et la realisation...
Et pourquoi Intel ne fait pas pareil, hein?"

Parce qu'ils ont fait des choix technologiques différents. Tout ce que je dis, c'est que chacun mesure les choses a ca facon,

"En plus techniquement, comme je le repete depuis des lustres, sous le 18 nm"
Et alors ce n'est pas parce que tu répêtes quelque chose de faux que ca va devenir vrai a un moment.

"par contre Intel a su mettre en place un systeme de gestion electrique qui ralentie et arrete tout ce qui peut l'etre, donc un x86 2016 ça pompe moins qu'un x86 de 2006, c'est pas de l'efficacité energetique, c'est de l'efficacité d'alimentation: le x86 gaspille moins aujourd'hui qu'il y a 10 ans c'est tout"

Et c'est quoi ce concept pompeux d'éfficacité d'alimentation, tu peux préciser stp, nous donner des références peut-etre, afin que nous pauvres mortel soient capable de comprendre tout cela.

avatar fte | 

@C1rc3@0rc

J'allais répondre, mais devant l'ampleur de la tâche je capitule.

En fait, Circee et Intel dans le même post se résume à critique virulente et pile fumante de bullshit.

Je te laisse à tes délires.

avatar macfredx | 

@fte

Personnellement j'ai lâché au milieu de son premier post... ?

avatar Paquito06 | 

La course a la finesse c'est pas que chez Apple ?
Blague a part, les ingenieurs Intel doivent faire face a des proprietes physiques difficile a surmonter, voyez ce que ca donne avec les batteries Samsung. C'est pareil. Ou encore en optique, on sait faire du tres petit dans les smartphones, mais on vend toujours en photo des optiques imposantes, la tricherie avec le numerique ne regle pas tout. On va bien y parvenir au 10nm ??

avatar ErGo_404 | 

https://www.engadget.com/2017/02/08/harvard-metalenses-closer-to-glass/

Peut-être bientôt la fin du besoin d'avoir des optiques grosses et lourdes. Bien qu'encore à l'état de projet de recherche, cette technique permettra de faire des optiques hyper légères, bon marché et bien plus précises que celles que l'on a en verre aujourd'hui.

avatar BlackPhenix | 

Petite question, peut etre bete: pourquoi Apple parviendrait à 10nm des cette annee avec les ARM quand Intel n'arrive pas à cette finesse avec ses processeurs ? Quelle est la difference ?

avatar Mdtdamien | 

@BlackPhenix

Ce n'est pas les mêmes usines.
Mais pourquoi tsmc et Samsung y arrive avant ... là

avatar C1rc3@0rc | 

@Mdtdamien

Oh non, les chaines de productions utilisent les memes principes et souvent les memes materiels et produits.

Le probleme c'est l'architecture du x86.
L'architecture de l'ARM est plus simple, mieux pensée, plus plastique et sa marge d'optimisation est bien plus grande.

La gravure a 10nm pose autant de problemes sur un x86 que sur un ARM, mais vu la complication du x86 plus c'est fin plus le taux de dechets en production augmente. Et c'est tres difficile d'avoir une production rentable, sachant que le cout d'une ligne de production augmente de maniere exponentielle avec la finesse de gravure.

En plus de cela il faut avoir des disques de silicium (wafer) a "graver" dont la qualité est toujours meilleure, donc toujours plus chers.

En fait en terme de performances ou de "chauffe" sous 20nm on gagne presque rien quelque soit l'architecture. Par contre, on peut graver plus de processeurs sur la meme surface de silicium: ça fait des economies d'echelles.

Du coté ARM on a une croissance de la production et donc les economies d'echelles sont de plus grandes malgre les problemes que pose la gravure sous 20nm

Du coté d'Intel, les economies d'echelles sont de plus en plus faibles d'autant que les ventes de processeurs s'effondre avec celles des PC...

A noter qu'Intel va se prendre un enorme coups de baton avec ces Atom defectueux, qui equipent les NAS et produits reseaux. Et vu qu'il est impossible de tricher logicielement, Intel va devoir payer tres cher cette malfaçon, d'autant que les Atom lui coutent deja tres cher en temps normal!

avatar ErGo_404 | 

Quoi qu'en dise MacG, les ARM sont des processeurs bien plus simples que les Intel. Utilisant beaucoup moins de transistors, à finesse de gravure égale la densité en transistors est plus faible sur ces processeurs et c'est probablement donc plus "facile" de descendre en finesse de gravure.

EDIT : en fait je suppose qu'Intel pourrait theoriquement baisser la finesse de gravure sur ses modèles hyper basse conso. Mais d'une part je n'en suis pas sûr, et d'autre part ça voudrait peut-être dire avoir deux lignes de fabrication différentes dans leurs usines et ça coûterait peut être trop cher.

avatar C1rc3@0rc | 

Les modeles «hyper-basse consommation» ne le sont que parce qu'ils disposent de systemes complexes qui permettent de baisser au maximum la frequence et d'eteindre le plus de composants possible la majorité du temps. Ce sont des processeurs conçus pour en faire le moins possible et piquer un roupillon a la moindre opportunitée!

Graver plus fin ne changera rien, l'architecture est toujours trop compliquée et l'efficacité energetique n'a jamais ete au coeur de la conception du x86.
Sous 20nm la finesse de gravure ne permet que de faire des economies d'echelles nottamment pour ce qui est des wafer. Intel n'arrive pas a reduire le taux de dechet a 14nm, pendant qu'il vend moins de x86, donc les economies d'echelles s'amenuisent par les deux bouts en meme temps.
Descendre sous 14nm ça veut dire pour Intel encore augmenter les couts de production tout en augmentant le taux de dechets. CQFD

avatar Stardustxxx | 

@Anass
"Petite question, peut etre bete: pourquoi Apple parviendrait à 10nm des cette annee avec les ARM quand Intel n'arrive pas à cette finesse avec ses processeurs ? Quelle est la difference ?"

Parce qu'ils ne mesurent pas les choses de la meme facon tout simplement.
Le process 7 nm de TSMC est equivalent au process 10 nm d'Intel... Et aucun des 2 est pres pour le moment.

Pour ceux qui veulent plus d'information : http://wccftech.com/intel-losing-process-lead-analysis-7nm-2022/

avatar Rez2a | 

Une question très certainement stupide mais j'avoue n'y connaître pas grand chose en matériel : plutôt qu'essayer de caser un plus grand nombre de transistors sur une même surface, pourquoi ils n'augmentent pas la taille physique des processeurs pour pouvoir y mettre plus de transistors ?
J'imagine qu'une plus grande surface aiderait à la dissipation thermique, voire permettrait bêtement de mettre des plus grands ventilos ?

Je sais pas, j'ai toujours trouvé ces composants ridiculement petits.. autant je comprends la contrainte dans un téléphone, autant pour des ordis fixes sur des cartes mères déjà géantes...

avatar iVador | 

@Rez2a

Le silicium coûte cher. C'est la raison principale pour laquelle on va vers des finesses de gravure plus petites

avatar IceWizard | 

@Rez2a
"plutôt qu'essayer de caser un plus grand nombre de transistors sur une même surface, pourquoi ils n'augmentent pas la taille physique des processeurs pour pouvoir y mettre plus de transistors ?"

L'une des raisons c'est que la vitesse de transmission des informations n'est pas instantanée. En diminuant la distance entre deux composants, on réduit le temps nécessaire au transfert des données, ce qui augmente le nombre d'opérations réalisables par seconde.

Cela parait négligeable à notre niveau de réalité. On appuie sur l'interrupteur et pouf .. la lampe s'allume, même à l'autre bout du jardin. Mais à l'échelle des processeurs et surtout à leurs cadences hallucinantes de fonctionnement (2,3 GHz = 2,3 milliards d'opérations à la seconde), le délai de transmission de l'information est une chose très importante.

avatar C1rc3@0rc | 

@Rez2a

«Une question très certainement stupide mais j'avoue n'y connaître pas grand chose en matériel : plutôt qu'essayer de caser un plus grand nombre de transistors sur une même surface, pourquoi ils n'augmentent pas la taille physique des processeurs pour pouvoir y mettre plus de transistors ?»

C'est pas du tout stupide et c'est l'option qu'avait pris Nvidia avec sa precedente generation de GPU. Ils avaient d'ailleurs reussi en meme temps a doubler l'efficacité energetique de l'architecture.

C'est aussi une voie qu'a utilisé IBM avec ses POWER et qui dans le meme temps a porté les fréquences a 5 Ghz.

Donc quand on a une bonne architecture et qu'on fait un bon travail dessus, on arrive a augmenter son efficacité energetique...

Donc la reponse a ta question n'est pas technologique mais commerciale: plus le composant est petit, moins il utilise de materiaux, moins il prend de place sur la carte mere, moins ça utilise de materiaux: donc plus c'est rentable grace aux economies d'echelles. Imagines qu'il faut produire des milliards de processeurs par ans: tout gain de materiaux represente des millions de dollars au minimum.
C'est aussi pour cela que les industriels produisent des appareils toujours plus fins et compact: pour toi, quelques microns de moins d'epaisseur sur ton smartphone, ou quelques dizaines de grammes en moins dans ton notebook, tu t'en apperçois meme pas... par contre pour les fabricants ce sont des tonnes d'aluminum, de verre, de silicium,... a moins a acheter et a transporter, donc en te vendant 500 dollars un smartphone qui fait 3 microns de moins que le precedent, il augmente sa marge bénéficiaire!

Ensuite jusqu'au 32 nm, reduire la taille de la gravure permettait de gagner en consommation et en production thermique. Sous les 32 nm ce n'est plus valable, les gains sont nuls, voire negatifs du fait qu'il faut compenser les effets indesirables (dont les effets quantiques). Donc reste l'interet commercial et sachant que plus on a un grande finesse, plus le sicilium doit etre de haute qualité, donc coute de plus en plus cher, l'equation devient de plus en plus compliquée.

avatar Goldevil | 

Aux débuts de la microélectronique, la taille des pistes et des transistors permettait des processus de fabrications assez faciles à maîtriser et pour un coût raisonnable. Une salle blanche, un appareil de lithographique basé sur la lumière blanche, des tubes de siliciums pas trop dégeux et c'était parti.

Maintenant, la gravure doit se faire avec des rayons X, les salle blanches doivent avoir un niveau de pureté de l'air proche de 99,99999%, le silicium dois aussi avoir une pureté parfaite. Les coûts des usines de semi-conducteur a tellement explosé qu'il n'y a plus qu'une poignée de société sur la planète que sont encore dans la course.

La problème de la multiplication des coeurs, c'est l'incroyable difficulté d'exploiter la puissance de calcul. Certains algorithmes peuvent être facilement parallélisé mais d'autres pas du tout. Les GPU sont par exemple hautement parallélisés car des batteries de modules de calculs peuvent effectuer exactement les mêmes calculs en parallèle (avec des données différentes) pour construire les différentes parties de la scène 3D. Par contre, quant on parle de manipulation de données dans une base de données ou certains types de traitement de signal, c'est très compliqué.

Il existe d'autres voies mais ce sont des voies tellement différentes que le saut technologique et vraiment très difficile à faire:
-utilisation du germanium ou de nanotube qui sont de meilleurs semi-conducteurs
-design de processeur asynchrone (il n'y a plus d'horloge)
-calculateurs optiques
-processeur quantique
...

avatar Stardustxxx | 

@Goldevil
"Maintenant, la gravure doit se faire avec des rayons X"

La gravure se fait un UV pour le moment, en tous cas pour Intel, TSMC et autres.

avatar Goldevil | 

En effet, tu as raison.

La photo-lithogravure actuelle se fait avec de l'UV combiné avec la technique d'immersion. Mais très bientôt le processus EUV (Extreme Ultra-Violet) va s'implanter car c'est la seule technique qui permette d'atteindre le seuil de 10nm. L'EUV nécessite une source de lumière totalement différente (laser plasma) et n'est, semble-t-il, pas encore très bien maîtrisé.

EUV a une longueur d'onde de 10 à 15 nm et rentre donc déjà dans la plage des rayons X qui s'étend de 10nm à 0,001nm.

Attention, il faut bien se rendre compte qu'actuellement une piste de 10nm a une largeur d'une centaine d'atomes. Il ne faut donc pas espérer de dépasser le nanomètre avec l'approche actuelle.

avatar Stardustxxx | 

@Goldevil
Non EUV ne rentre pas dans la plage des rayons X.

Rayons X : 0,01 a 10 nm
EUV : 10 a 124 nm

EUV utilisé par les compagnies de semiconducteur : 13,5 nm.

EUV est en retard, ca fait des années que l'on en parle, il y a aussi la gravure par faisceau d'électron qui a l'air prometteur.

avatar C1rc3@0rc | 

«Attention, il faut bien se rendre compte qu'actuellement une piste de 10nm a une largeur d'une centaine d'atomes. Il ne faut donc pas espérer de dépasser le nanomètre avec l'approche actuelle.»

Le probleme de l'industrie c'est le silicium qui limite l'interet de la finesse de gravure... d'autres materiaux sont utilisables, mais ils sont loin d'etre aussi rentable que le silicium

Au niveau des techniques de gravures, il semble qu'IBM a une approche inverse tres prometteuse qui au lieu de la gravure consiste a faire de l'impression 3D au niveau atomique. Ca va pas changer le probleme du silicium, mais ça resoud le probleme de gravure sous 10 nm. Par contre la aussi la rentabilité est une question centrale, et de toute façon en industriel, c'est la question centrale, bien plus que technologique.

avatar Stardustxxx | 

@C1rc3@0rc
"Au niveau des techniques de gravures, il semble qu'IBM a une approche inverse tres prometteuse qui au lieu de la gravure consiste a faire de l'impression 3D au niveau atomique. "

Visiblement tu ne comprends pas comment sont fabriqué les microprocesseur car le processus est en grande partie un processus additif (ce qu'est l'impression 3D), les atomes sont déposés couche par couche.

avatar Remords Sincères | 

Encore bloqué, lol.
J'ai déjà du mal à imaginer et concevoir qu'on ait pu inventer des machines capables de graver à une échelle qu'on ne veut même pas voir !!!!!!!!
14nm c'est 700 fois plus fin qu'un cheveux humain !!!!!!! Hallucinant :(
7 milliards de transistors sur une surface de 450nm2 .... :I

Lol, quand même quoi, sont doués les mecs. On va pas trop leur en vouloir s'ils ont encore un peu de mal à stabiliser les tailles en dessous

avatar thebarty | 

@Remords Sincères

+1000
On peut râler sur certaines lenteurs épisodiques de nos machines, mais ce qu'il y a sous le capot reste assez impressionnant.
Du coup, quand on lit certains trolls minables qui n'ont pas le milliardième des compétences de ceux qui conçoivent ses petits bijoux, on peut relativiser.

avatar Raikstorm | 

enfin un commentaire intelligent !!!

avatar JLG47_old | 

La vrai difficulté tiens dans le fait de seulement faire évoluer les produits.
Seule une réécriture totale permet un vrai saut de performance en passant outre tous les compromis successifs.
C'est un chantier titanesque compte tenu de la complexité du produit et de la nécessité de respecter une base logicielle existante.
Apple l'a expérimenté en quittant PowerPC, difficile d'imaginer de recommencer avec la base installée Intel.

avatar HellTiger | 

Bon sang, mais c'est vraiment des nuls.
Moi je le fais tous les jours !
Je grave mes macs en 5nm.
et à la main, en plus !

avatar enzo0511 | 

Ce genre de news me fait sourire, je suis presque nostalgique de ma période PC quand je montais moi meme mes tours en voulant faire des overclocks de malade avec du watercooling

XX années plus tard je me dis que j'en ai plus rien à faire de la puissance ;)

Mon dernier Mac est un MB sans ventilo et c'est le pied

avatar NestorK | 

On a pas tous les mêmes besoins mais dans le fond, totalement d'accord avec toi. De plus, nos machines sont toujours valables malgré les années et c'est une bonne nouvelle. Sans oublier que ça pousse les devs à faire avec ce qu'ils ont. C'est du win/win.

avatar C1rc3@0rc | 

@NestorK

Je suis pas d'accord sur la bonne nouvelle.
Les smartphones doublent leurs puissance chaque annee mais on utilise qu'une fraction de cette puissance, c'est pas pertinent, mais c'est un modele commercial qui etait celui du PC... avant.

Les PC eux stagnent en puissance depuis plus de 10 ans. Tant qu'on fait que du traitement de texte ou de la navigation WEB, c'est OK, mais dans des domaines de plus en plus nombreux on a une croissance de quantité et la complexité des données qui est telle qu'on est face a un raz de marrée que les plus puissants PC actuels ne sont capables de gerer qu'au tiers. Dans 3 ans on va devoir gerer 45000 hexaoctets de données, et face a ca devoir traiter ce flot avec une puissance de calcul qui avait deja de la peine avec 130 hexaoctet, c'est inquietant...

Tout ce qu'on nomme faussement aujourd'hui IA ne fonctionne que grace a des datacenter monstrueux qui consomment une énergie colossale. L'IA, la vraie on va en avoir sacrement besoin, et sur le bureau, pas depuis un datacenter a travers des kilometres de cables... Et la on est aujourd'hui dans la panade avec l'escroquerie de l'encloudage a tout va.

Apres, je suis bien d'accord au niveau du programmeur, mais c'est pas non plus de sa faute, faut voir qu'avec le monopole x86, Intel a castré le développeur en expliquant que le processeur etait trop intelligent et qu'il saurait a la fois optimiser le code et le paralléliser... Et c'est clair que losque on programme du x86, on programme une VM dont on ignore complètement comment sera exécuté le code et dans quel ordre... et de plus on est conditionné par le cadre industriel qui a imposé massivement le C et les langages de la meme flanqué, impératifs de bas niveau infoutus de gérer le parallélisme. Ca fait des gros obstacles a passer.

avatar Stardustxxx | 

@C1rc3@0rc
"Apres, je suis bien d'accord au niveau du programmeur, mais c'est pas non plus de sa faute, faut voir qu'avec le monopole x86, Intel a castré le développeur en expliquant que le processeur etait trop intelligent et qu'il saurait a la fois optimiser le code et le paralléliser... Et c'est clair que losque on programme du x86, on programme une VM dont on ignore complètement comment sera exécuté le code et dans quel ordre... et de plus on est conditionné par le cadre industriel qui a imposé massivement le C et les langages de la meme flanqué, impératifs de bas niveau infoutus de gérer le parallélisme. Ca fait des gros obstacles a passer."

Il faut vraiment que tu ailles consulter, ca devient grave docteur.

avatar macfredx | 

@Stardustxxx

Don't feed the troll ??‍♂️

Pages

CONNEXION UTILISATEUR