IBM fait un grand pas en avant avec sa puce 7 nm
Avec l'aide de Samsung, GlobalFoundries et d'autres spécialistes des semi-conducteurs, IBM a produit la première puce 7 nm fonctionnelle au monde. Une finesse de gravure deux fois inférieure à ce qui se fait de mieux commercialement aujourd'hui et qui augure des gains de performances et de consommation sensibles.
Les processeurs Broadwell qui équipent une partie des Mac sont gravés en 14 nm, tandis que la puce A8 de l'iPhone 6 est, elle, gravée en 20 nm — le Galaxy S6 est le premier smartphone à avoir un processeur 14 nm.
Graver sous les 10 nm est un véritable challenge (le passage du 22 au 14 nm avait déjà demandé plus de temps que prévu à Intel), notamment parce que le silicium, le matériau de base habituel, n'est pas adapté à cette finesse extrême. « Le canal devient si petit que la poignée d'atomes de silicium ne peut pas transporter assez de courant », explique Ars Technica. La solution d'IBM et de ses partenaires, c'est d'ajouter du germanium afin d'exciter les électrons et ainsi permettre de faire circuler le courant nécessaire.
Mais ce n'est pas tout. Graver plus finement demande évidemment plus de précision. IBM et ses associés sont parvenus à mettre au point un processus de lithographie EUV qui a une longueur d'onde suffisamment précise pour graver sous les 10 nm.
Selon Big Blue, sa puce 7 nm est 50 % plus petite qu'une autre gravée en 10 nm. De plus, les gains de performances et de consommation seraient de 50 %, là encore face à une puce 10 nm. Rappelons que les Mac sont équipés aujourd'hui de processeur 14 nm au minimum. Ça laisse rêveur.
Intel a récemment fait part de ses intentions sur ces nouvelles finesses de gravure. La firme de Santa Clara prévoit de sortir ses premières puces 10 nm fin 2016 ou début 2017, puis 7 nm en 2018. Est-ce que la puce 7 nm d'IBM est juste un effet d'annonce pour effrayer Intel ou véritablement quelque chose de viable ?
Interrogé par Ars Technica, Mukesh V. Khare, l'ingénieur d'IBM qui supervise le projet, assure que le processus de fabrication a été pensé dès le départ pour être appliqué à grande échelle dans le futur et par toute l'industrie. Quant à l'aspect commercial, Mukesh V. Khare explique que les puces 7 nm ne seront pas moins chères (auparavant, les prix baissaient quand les puces devenaient plus petites), mais que leur rapport performances-prix en feront une technologie viable.
Comment faire parler de soit quand on est bien en retard...
Intel, Apple, AMD on de l'avance sur IBM et sûrement aussi sur le 7nm mais eux n'ont pas fait d'annonce pour avoir réussir à en fabriquer qu'un seul a l'état de prototype qui ne deviendra commercialisable que en 2018 au plus tôt...
@fousfous :
C'est un consortium... Ils sont tous alliés dans la recherche, hors Intel. IBM a toujours été un leader en matière de gravure et de processeurs. Sa recherche fondamentale est très puissante.
Vu ton commentaire, je pense que tu n'as pas compris l'article.
Oui ! cf. leur projet de cerveau artificiel complet, leurs CPUs simulant des synapses, le langage de programmation qui va avec, Watson, ...
@fousfous
Commentaire démontrant que lorsque on y connait rien il faut quand meme faire savoir qu'on a une opinion et clamer haut et fort des âneries.
Intel, Apple, AMD, ARM, etc utilisent tous des brevets appartenant a IBM et indispensables autant pour la conception des puces que pour leur réalisation. Sans IBM pas de multicore, pas de SoC, le SoI tu oublie, les moteurs RISC qui animent toutes les puces actuelles tu oublie, etc, etc.
Si IBM a choisi de ne plus produire lui meme ses puces mais de mutualiser la production en s'associant avec Global Foundries, c'est par logique économique. Mais IBM reste le plus gros producteur de brevet au monde et surtout le principal moteur de recherche fondamentale.
Actuellement Intel est dans les choux, car depuis plus de 5 ans il n'arrive plus a faire progresser sa vieille architecture x86. Et on voit avec Broadwell, que le très difficile passage de 22nm a 14 nm n'apporte quasi rien.
Maintenant la solution de passer au 7nm avec du germanium n'a de sens que pour une architecture novatrice et efficace (évolution du RISC). Et avec le germanium la conjecture de Moore n'est pas sauvée...
@C1rc3@0rc
Le passage au germanium est obligatoire a cause de contrainte physique (pas assez de courant qui passe avec juste du Si), ça n'a rien a voir avec l'architecture CPU.
La conjecture de moore est condamée a cause des contraintes physique, elle ne peut pas etre sauvée ;)
Merci C1rc3@0rc d'avoir "corrigé" fousfous. Il le méritait bien.
J'ajoute qu'il cite bêtement Apple et ARM qui ne sont pas des fondeurs et que par conséquent, ces deux firmes ne peuvent pas (et n'ont pas vraiment à) maîtriser ces technologies. En revanche ils doivent connaître l'état de l'art pour faire avancer leur propre design.
Internet c'est bien mais ça a beaucoup fait progresser le café du commerce ;-)
"qui a une longueur d'onde suffisamment précise pour graver sous les 10 nm"
Je dirais plutôt "suffisamment COURTE"....
@zoubi2 :
Hormis pour la boutade, en bon français, une longueur est petite ou grande, c'est une distance qui est longue ou courte ^^ (et désolé par avance si ce n'était que de l'humour :))
@Yohmi:
Exact. Une PETITE longueur d'onde. Au temps pour moi. J'ai bêtement pensé "grandes ondes" et "ondes courtes".
N'empêche... Plus on veut graver fin, plus il faut des petites longueurs d'onde. On en arrive aux rayons X....
C'est bon tout ça :)
Mais comment expliquer que l'iPhone 6 en est toujours à 20nm ? La production à trop grande échelle ?
@AllanZ :
Oui d'une part, et aussi le fait que peu de fondeurs maîtrisent la gravure en dessous de 20 nanometres, ils gardent donc leur production pour eux en priorité : Intel, Samsung.
@AllanZ :
Et bien car l'iPhone 6 étant sorti en septembre 2014, la conception de la puce A8 a débuté début 2014. Or début 2014 la toute dernière technologie de gravure était en 20 nm.
CQFD
@florian1003 :
Je pense que ça prend nettement plus longtemps que 9 mois pour mettre au point une puce comme ça.
Quid de l'impact du Germanium sur le prix de la puce? "ne seront pas moins chère..." Tu m'étonne, cet élément est rare et la production mondiale, si l'on en croit Wikipedia, est minuscule.
@geneosis :
Les terres rares sont déjà utilisées dans nos chers objets technos. Les prix au kilos sont élevés, mais la masse utilisée par appareil se mesurant en microgrammes, l'impact sur le coût de revient reste faible.
7 nm ? On entre dans les rayons X là ! Je suppose que pour graver dans ces finesses-là, faut être nettement en dessous. Vous imaginer la fréquence (genre 40 Péta Hertz) ?
70 Angströms ! Une division par vingt et on est dans des tailles atomiques : ça va devenir vraiment très très difficile de réduire encore :)
Faudrait aussi voir si le processeur tient le coup sur la duree...
Heureusement qu'apple et ibm sont en très bon terme actuellement.
@fousfous :
IBM a revendu récemment sa division micro électronique à Global Foundries. IBM ne produit plus de puces.
En revanche IBM a gardé ses départements de recherche fondamentale. Et IBM, l'entreprise qui dépose le plus de brevets au monde loin devant le second, possède une bonne partie des brevets qui permettent les gravures d'aujourd'hui.
Même si elles ne sont gravées qu'à 22nm les puces du z13 et du Power 8 sont parmi les puces les plus sophistiquées au monde. Sans parler des processeurs neuro synaptiques qui prépare la génération des ordinateurs de demain.
Bref, dire qu'IBM est en retard par rapport à Intel et AMD me fait doucement rigoler.
@Darth Philou :
On est deux à rigoler :)
Intel repousse ses sorties, gonfle ses prix pour des raisons bidons. La vraie c'est qu'il n'y a plus qu'un fournisseur de puces grand public, eux. Plus de concurrence...alors pourquoi se presser ....? Peut-être une bonne nouvelle finalement, IBM ?
@raf30
C'est faux, Intel est aux aboies face a ARM depuis presque 10ans, situation responsable de la dérive de la course a la performance par watt qu'intel n'arrive pour autant pas a faire en tete. Et Intel n'arrive pas non plus a améliorer la vitesse de traitement unitaire ce qui fait qu'en monocore les performances stagnent de manière incontestable depuis 5 ans. Le plus lamentable exemple de cette gabegie c'est le Core-M: les performances misérables d'un Atom sur une architecture Core...
Intel est aussi en concurrence avec ... IBM, dans tout ce qui est station de travail et serveur. Sans parler du supercomputing ou Intel ne doit son relatif succes qu'a cause d'une politique de prix casses et de renonciation a son architecture Larabee, se limitant a faire tourner des solutions d'AMD et de Nvidia...
Les prix abusifs des Core i et des Xeon permettent a Intel de financer les pertes dans les secteurs mobiles et serveur, parce qu'effectivement dans le PC pour encore quelques temps Intel est en position de monopole.
Le S6 est le seul en 14nm mais il est un des derniers smartphones haut de gamme encore en 32-bits, n'est-ce pas?
je sens une pointe d'angoisse :D
LOL il a encore le 32 bits ! La grosse arnaque !
c'est bon tout ça, je pense simplement à ces nouvelles techno style IOT (internet of things) qui vont peut-être profiter des avantages du minuscule. A suivre comme disait les autres....
@spece92 :
Il a un octa core en 64-bits il me semble
@foufous
Quelle inculture technologique! Tu devrais arrêter de t'instruire dans telepoche.
Je pourrais t'expliquer la raison d'être d'IBM et leur stratégie au niveau de l'innovation mais tu n'en vaus vraiment pas la peine.
@ 0MiguelAnge0
Je lis très souvent les commentaires, mais je n'avais jamais ressenti le besoin de poster.
Cependant quand on attaque quelqu'un avec autant de morgue on vérifie son inculture grammaticale, de grâce conjuguez correctement le verbe valoir.
Bonne journée.
j'ai l'air "fin" moi avec mon nehalem en 32nm....
Ah! Le G5 mobile va enfin voir le jour!
Mrraaaouh ! Tu fais ronronner mon Tigre !
@gratgrat
Au moins j'aurais réussi cela.
Quand on poste, il faut assumer. Je suis resté correct et à son niveau pour aider le message à passer.
Le jour où MacG permettra d'éditer, tu seras permis de te la ramener Maître Capello.
Et pour revenir au sujet de l'article, pas d'avis sur comment IBM communique à travers ses recherches avancées depuis des années?
c'est quand meme pathétique que dès que l'on met un commentaire qui ne plait pas, on se fait ban.
Au journalistes: bande de charlots, changez de métier . Il y a des gens compétents qui ne demandent qu'a travailler. Laissez votre place. On manque de main d'oeuvre dans la voirie. avec un pic et une pioche, vous serez probablement moins lamentables.