Apple aurait mis la main sur la production à 4 nm de TSMC pour ses futurs Mac

Nicolas Furno |

Digitimes croit savoir que TSMC serait en avance sur la production de puces gravées à 4 nm. Au lieu d’un lancement en 2022, le fondeur pourrait les proposer à ses clients dès la fin de l’année 2021. Ce qui serait parfait pour de futurs Mac Apple Silicon, suggère le site qui a des sources dans la chaîne de production asiatique.

L’avance de TSMC en matière de finesse de gravure bénéficie à Apple depuis des années pour les systèmes sur puce maison utilisés dans les iPhone et iPad, et maintenant les Mac. Si l’entreprise pouvait continuer à exploiter cet avantage et creuser encore l’écart face à Intel qui reste bloqué à 10 nm à ce jour, on imagine bien qu’elle ne se priverait pas.

Image de fond : 曾 成訓 (CC BY 2.0).

Peut-être que la différence entre 5 et 4 nm est suffisamment minime pour qu’Apple puisse le faire dès sa deuxième génération de puce pour Mac ? Il faut noter toutefois que Digitimes parle de « nouvelle génération », sans préciser explicitement que ce sera la prochaine. Une autre hypothèse, peut-être plus probable, est que cela ne concerne pas les modèles de 2021, mais ceux de 2022.

Le site ajoute que les prochains iPhone, attendus à l’automne, devraient rester à 5 nm, mais qu’ils devraient bénéficier d’un nouveau processus de fabrication amélioré. TSMC parle de processus « N5 Plus » et même si c’est une optimisation plus légère que le passage à la finesse du dessous, cette nouveauté devrait apporter des avantages en termes de consommation et/ou de puissance aux nouveaux smartphones.

Une chose est sûre en tout cas : Apple ne compte pas laisser tomber son avantage. Son partenariat avec TSMC est solide et comme Digitimes le laisse entendre, toute la capacité de production initiale en N5 Plus et à 4 nm devrait être entièrement réservée pour les produits conçus à Cupertino. La concurrence n’a pas d’autres choix que d’attendre derrière, avec une année ou deux de retard au minimum.

avatar DrJonesTHX | 

Y’a quoi en dessous de 1Nm ??

avatar Paul Position | 

@DrJonesTHX

Heeeuuuu.... 0,9 Nm ?

avatar raoolito | 

@Paul Position

ah oui c’est vrai qu’on peut aussi jouer avec les virgules !

avatar ErGo_404 | 

En dessous on va peut être plutôt parler de pico metres. Mais cela dit on atteindra la limite du silicium avant d'atteindre le 1 Nm, il faudra probablement changer de technologie ou de matériau de base.

avatar oomu | 

@ErGo_404

y a un moment où vous tombez aux limites de la matière et de ce qui constitue des phénomènes électriques. A descendre sous le nanomètre est frôler le rayon d'un atome, il faudra demander à un physicien des particules ce qui reste des phénomènes usuels dont nous témoignons à l'échelle des processeurs.

https://fr.wikipedia.org/wiki/Silicium tout sur le silicium, Rayon atomique vers les 110 pm (picomètre)

c'est une toute autre conception des machines qu'il faudra au delà.

avatar DrJonesTHX | 

@Paul Position

🤣🤣

avatar raoolito | 

@DrJonesTHX

chaque nanometre coute des milliards ne investissement et en recherche.

avatar Marius_K | 

@DrJonesTHX

999 pm

avatar DrJonesTHX | 

@weagt

En fait je me demandais si on pouvait encore descendre en dessous du 1 Nm ?

Est-ce que c’est toujours avec le silicium ou il faudra autre chose ?

c’était pas la loi de Moore qui disait qu’on pouvait réduire par deux chaque années années1/2 ?
Jusqu’où ça peut aller???

avatar Marius_K | 

@DrJonesTHX

Je n'y connais pas grand chose sur le sujet, mais il me semble avoir lu ici ou là que on commençait à atteindre des limites physiques difficilement franchissables.
L'avenir du processeur passe je pense par une toute autre technologie, peut-être l'ordinateur quantique...

avatar saoullabit | 

@weagt

Ordinateur quantique c’est pas pour demain dans les téléphones. L’usage n’est pas le même: aujourd’hui on fait des opérations mathématiques de base avec 0 et 1, ce que ne fait pas le processeur quantique
Et il faut penser à refroidir le bazar, un processeur quantique en gros c’est plongé dans un bain d’azote liquéfié. Je crois que les processeurs « classiques » ont de beaux jours devant eux, mais il est fort à parier que la suite se fera sur d’autres substrats.
Pourquoi pas des nano trucs aux même comportement que des transistors sur des feuilles de nano substrat
Comme si tu empilais les feuilles de nanotrucs plutôt que de creuser dans du silicium ...
Bon ... la patience toussa :-)

avatar IceWizard | 

@weagt

« L'avenir du processeur passe je pense par une toute autre technologie, peut-être l'ordinateur quantique... »

L’ordinateur quantique est loin d’être la panacée universelle. En dehors des énormes difficultés techniques pour le mettre au point, il ne peut résoudre que des problèmes massivement parallèles (casser un code par exemple, ou examiner toutes les possibilités de pliage d’une protéine). Il n’est d’aucune utilité pour les taches séquentielles classiques, où chaque étape doit attendre la fin de la précédente pour s’exécuter.

Même si on arrive à créer des processeurs quantiques, ils voisineront avec des processeurs classiques, comme les CPU coexistent avec les GPU dans les puces actuelles.

avatar YetOneOtherGit | 

@weagt

"peut-être l'ordinateur quantique..."

Mêmesi l’on parvient à relever les très nombreux obstacles à l’émergence des approches quantiques, ce n’est pas une informatique qui remplacerait l’approche actuelle mais la complèterait.

La plus grande part de ce que l’on fait avec nos machines actuelles n’est pas accessible aux approches quantiques

Les approches quantiques ouvrent des champs des possibles inaccessibles aux approches actuelles

C’est un nouveau territoire d’usages qui s’ouvrirait en plus des usages actuels.

avatar oomu | 

@weagt

'Je n'y connais pas grand chose sur le sujet, mais il me semble avoir lu ici ou là que on commençait à atteindre des limites physiques difficilement franchissables. "

on atteint des échelles où ce n'est plus de la "matière" au sens usuel. Déjà à l'échelle actuelle des cpus du commerce l'électron obtient des propriétés fascinantes dont les machines doivent tenir compte.

"L'avenir du processeur passe je pense par une toute autre technologie"

l'avenir passe par des choses non encore vécus, oui.

"peut-être l'ordinateur quantique..."

vaste sujet de science fiction spéculative.

Pour l'heure, et après des décennies de conceptualisation et 10 ans de vagues entreprises promettant avoir mis en oeuvre des calculs sur 2bits pendant un pouillème infime de seconde dans des conditions frappadingues (pas viable pour mon frigo chez moi), on en est loin de pouvoir en faire un truc utile.

(oui un truc utile: même en cryptographie ou pour le théorème mathématique super-cool de votre cousin)

pour l'heure: optimisation, + de coeurs, meilleurs algorithmes, progrès sur la dissipation, etc.

avatar redchou | 

@DrJonesTHX

Un atome de silicium fait 110 pm... Ce sera difficile de descendre en dessous 😅

Après, il y aura bien d’autre problème avant d’arriver la... 😉

avatar domico (non vérifié) | 

@DrJonesTHX

La loi de Moore disait qu’on pouvait doubler le nombre de transistors tous les 18 mois.
Mais c’est une loi empirique.

avatar marc_os | 

@ domico
La « loi de Moore » n'est en fait pas une loi de la physique.
Ce fut juste une constatation de l'évolution de la complexité des puces pendant des décennies. Tout se passait « comme si ». Or rien ne peut croitre indéfiniment ! A un moment c'est fatal, les lois de la physique dépassent celles de l'économie : Il ne suffit plus de mettre plein d'argent pour continuer à croitre indéfiniment.

avatar domico (non vérifié) | 

@marc_os

D’où ma précision sur le fait que c’est une loi empirique.

avatar oomu | 

@domico

La loi de Moore, c'est un gars qui a observé ce que globalement l'industrie (et intel) arrivait à produire comme croissance de complexité des produits.

Ok, il était bien placé pour avoir les chiffres, mais effectivement ce n'est qu'empirique, un constat, sans dire plus, ni une argumentation si c'était vrai pour toujours ou juste encore 36 mois.

avatar YetOneOtherGit | 

@oomu

"Ok, il était bien placé pour avoir les chiffres, mais effectivement ce n'est qu'empirique, un constat, sans dire plus, ni une argumentation si c'était vrai pour toujours ou juste encore 36 mois."

On peut même considérer que c’est une injonction à l’industrie plus qu’une loi empirique : notre objectif est de parvenir à doubler la densité d’intégration tous les dix huit mois.

avatar IceWizard | 

@DrJonesTHX

« En fait je me demandais si on pouvait encore descendre en dessous du 1 Nm ?

Est-ce que c’est toujours avec le silicium ou il faudra autre chose ? »

Jusqu’a présent les processeurs étaient gravés sur le modèle d’une feuille de papier, à plat. L’une des solutions pour augmenter les performances est d’avoir une structure 3D, comme le cerveau humain.

L’avenir a quelques décennies c’est les Nano-tubes de carbone, des structures en forme de tubes, composées d’une centaine d’atomes, pouvant fonctionner comme un transistor, avec des performances hallucinantes et une consommation énergétique infime. Mais c’est pas encore pour demain ..

https://fr.wikipedia.org/wiki/Nanotube_de_carbone

avatar BeePotato | 

@ DrJonesTHX : « En fait je me demandais si on pouvait encore descendre en dessous du 1 Nm ? »

Bien sûr. C’est très facile : il suffit de raccourcir le levier. 😁

(Petite plaisanterie sur le fait que les nanomètres, dont il est question ici, ça s’écrit « nm » et non « Nm », qui est plus évocateur du newton mètre.)

avatar fatboyseb | 

avatar YetOneOtherGit | 

@fatboyseb

"9Å"

L’Ångström n’est pas SI c’est sale 😄

avatar fatboyseb | 

ou pico mètre (1 nano mètre étant = à 1000 pico mètres)

avatar Rifilou | 

@DrJonesTHX

Je crois me souvenir qu’on peut ensuite passer à des processeurs construits en 3D ce qu’il permettrait d’embarquer bien plus de transistors que dans les processeurs plats. (D’autres l’ont déjà écrit, je viens de le voir🤦‍♂️) https://en.m.wikipedia.org/wiki/Three-dimensional_integrated_circuit

Peut-être qu’on utilisera les photons à la place des électrons un jour ?
https://en.m.wikipedia.org/wiki/Optical_computing

avatar IceWizard | 

@Rifilou

« Peut-être qu’on utilisera les photons à la place des électrons un jour ?
https://en.m.wikipedia.org/wiki/Optical_computing »

Le sujet est étudié depuis fort longtemps, notamment par les militaires. En 1976 un pilote soviétique est passé avec l’Ouest avec son Mig-25. Il s’est posé au Japon, sur une base us, demandant l’asile politique. Les soviétiques ont exigés la restitution de l’appareil, ce qui les américains ont faits quelques mois après, le temps de le démonter et de le disséquer.

Grosse rigolade au début, ce Mig-25 fleuron de la technologie militaire russe avait une électronique basée sur des tubes à vide, comme les vieilles tv. Puis une rumeur est apparue, disant que les russes faisaient des études sur l’effet EMP des armes nucléaires. L’effet EMP c’est un flash électromagnétique qui détruit tous les composants électriques sur son passage. En théorie une bombe H explosant dans la stratosphère, au dessus des usa détruirait la totalité de l’électronique de l’armée us (sans parler des ordinateurs civils, d’Internet, etc ..).

Les composants à tubes n’étant pas touchés par le phénomène, les Mig-25 seraient opérationnels. Cela a fait peur à beaucoup de monde, d’où d’importantes recherches sur la protection contre les armes EMP, notamment le développement d’une technologie photonique, insensible aux EMP.

45 ans après, toujours pas d’ordinateurs photoniques ! Pas si simple que ça, manifestement !

avatar YetOneOtherGit | 

@IceWizard

C’est de l’électronique les tubes que tu présentes pas de la photonique.

Je ne vois pas où tu veux en venir ?

avatar IceWizard | 

@YetOneOtherGit

« C’est de l’électronique les tubes que tu présentes pas de la photonique.

Je ne vois pas où tu veux en venir ? »

J’explique que (et pourquoi) les militaires us (et la DARPA) ont dépensés beaucoup d’argent dans les années 80-90 pour développer une électronique alternative, basée sur la photonique, sans y arriver.

Les tubes électroniques utilisés un moment par les russes résistent aux armes EMP, mais il est impossible de les utiliser pour créer des systèmes informatiques performants avec. L’Eniac, l’un des premiers ordinateurs (anglais) de l’histoire, conçu avec des tubes électroniques, faisant 30 tonnes et consommait 150 Kw, pour une puissance de calcul inférieure à celle d’une calculatrice 4 opérations.

La conclusion est que les ordinateurs photoniques resteront probablement de la Science-Fiction pendant longtemps, alors qu’ils sont très séduisant sur le papier. C’est bien dommage ..

avatar YetOneOtherGit | 

@IceWizard

"La conclusion est que les ordinateurs photoniques resteront probablement de la Science-Fiction pendant longtemps, alors qu’ils sont très séduisant sur le papier. C’est bien dommage .."

Ok je connaissais l’anecdote mais je n’avais pas compris ta conclusion 😉🙏

avatar CogipTelematique | 

Merci , intéressant cette histoire !

avatar raoolito | 

Apple qui achete toute la production, ils nous refont le coup des micro hdd des ipods ou de la memoire flash :-)

avatar redchou | 

Je suis sur que l’avantage de puce M1 ne serait pas aussi important à finesse de gravure égale vs AMD ou même Intel...

avatar marc_os | 

@ redchou
Et alors ?
Apple n'empêche pas Intel de graver à 4nm !
C'est Intel qui n'en est pas capable.

avatar redchou | 

@marc_os

C’est pas le problème ici, je m’en bat les couilles qu’Intel n’en soit pas capable... Et je ne parle pas que d’Intel mais aussi d’AMD, voir meme plutôt d’AMD en premier lieu.
C’est juste d’un point de vue architecture...
Votre « et alors? » et votre leçon à la con vous pouvez vous le mettre ou je pense.

avatar hirtrey | 

@redchou

Apple M1 : 16 milliards de transistors
Intel i7 : 3 milliards

avatar redchou | 

@hirtrey

C’est sensé indiquer quoi?

avatar IceWizard | 

@redchou

« C’est sensé indiquer quoi? »

Laisse tomber. Tes paradigmes religieux t’empêchent de comprendre.

avatar redchou | 

@IceWizard

Excuse moi, mais il me semble que comparer le nombre de transistor d’un SoC et un CPU est un peu débile (surtout quand on sait tout ce que contient le M1) et du coup de demander quelques explications pour essayer de comprendre le raisonnement sous-jacent qui en arrive la... 🤷‍♂️

Je ne vois pas ce qu’il y a de religieux la dedans, ne projetez pas vos problèmes sur les autres. 😉

avatar YetOneOtherGit | 

@redchou

C’est tous des rigolos de toute façon NVidia a 54MTo dans son A100 Ampere 😄

avatar IceWizard | 

@redchou

Covfefe

avatar Hazuka | 

@hirtrey

Miam 😋

avatar marc_os | 

@ redchou
> votre leçon à la con

Merci, vous qui êtes « sur* que l’avantage de puce M1 ne serait pas aussi important à finesse de gravure égale », à l'aune de votre boule de cristal je suppose.

(*) Vous êtes sur quelque chose, ou bien sûr de vous ? 😜

avatar redchou | 

@marc_os

Non, regardez la différence entre un M1 (5nm) et un Ryzen 7 5800U (7nm)...

avatar koko256 | 

@redchou

Au doigt mouillé (car la r&d des puces c'est plutôt secret), je dirais que l'x86_64 est trop complexe pour réussir à corriger les problèmes électroniques qui apparaissent naturellement quand on réduit la finesse de gravure. Il faut parfois dupliquer certaines parties, changer la structure de certaines autres. Cela nécessite de bien comprendre non seulement le code mais aussi le circuit généré à partir de ce code.

avatar redchou | 

@koko256

- Il me semblait qu’en réalité, pour résoudre ces problèmes de complexité, les processeurs x86_64 ne sont plus vraiment des processeurs CISC et qu’ils convertissent le code exécuté en opération plus simple en interne...

avatar koko256 | 

@redchou

C'est vrai, mais il faut quand même ajouter le circuit de traduction x86_64 -> assembleur interne vu que ce n'est pas logiciel.

avatar YetOneOtherGit | 

@redchou

"Il me semblait qu’en réalité, pour résoudre ces problèmes de complexité, les processeurs x86_64 ne sont plus vraiment des processeurs CISC et qu’ils convertissent le code exécuté en opération plus simple en interne..."

Yep 👍

avatar YetOneOtherGit | 

@koko256

"Au doigt mouillé (car la r&d des puces c'est plutôt secret), je dirais que l'x86_64 est trop complexe pour réussir à corriger les problèmes électroniques qui apparaissent naturellement quand on réduit la finesse de gravure."

Nope un processus d’intégration est absolument indépendant de ce qui sera gravé en suite.

Ce n’est pas les enjeux d’architecture qui freinent Intel mais la maîtrise industrielle de processus extrêmement complexes et délicat.

Une usine de ce type est sans doute un des systèmes les plus complexe qui soit actuellement d’un point de vue industriel.

Pages

CONNEXION UTILISATEUR