Intel va attendre la 16e génération pour consommer moins : y a pas le feu au Lake

Pierre Dandumont |

L'information vient d'Intel directement : Michelle Johnston Holthaus (responsable de la branche Client Computing) a indiqué à Ian Cutress (ancien rédacteur en chef d'Anandtech, devenu consultant) que l'architecture Lunar Lake allait (enfin) mettre l'accent sur les performances par watt, en ciblant les appareils mobiles. Le problème, c'est que Lunar Lake n'est pas pour tout de suite, comme l'explique Tom's Hardware.

Beaucoup trop de Lake

Essayons de résumer. La 13e génération de processeurs Core (l'actuelle) porte le nom de Raptor Lake. Elle offre des performances élevées, mais une efficacité énergétique assez moyenne, pour ne pas dire mauvaise. Les puces classiques (comme les Core i5) arrivent à rester dans les clous, mais dès qu'Intel tente d'aller plus vite, comme — au hasard — en montant la fréquence à 6 GHz, la consommation explose.

Intel atteint les 6 GHz avec une édition spéciale « je n

Intel atteint les 6 GHz avec une édition spéciale « je n'aime pas la planète »

Le cru 2023 de la gamme Intel devrait (selon les rumeurs) être une déception : on parle pour le moment d'un Raptor Lake Refresh, c'est-à-dire une optimisation des puces de 2022, qui sont elles-mêmes des évolutions assez mineures de celles de 2021 (Alder Lake, la 12e génération). Pour le moment, personne ne sait si Intel va garder le nom « 13e génération » ou considérer qu'il s'agit de la 14e. Dans le passé, la société a en effet choisi les deux voies : les Haswell Refresh sont restés en 4e génération, les Coffee Lake Refresh sont devenus la 9e génération.

Le vrai Raptor Lake dans Apple Plans.

Meteor Lake, qui est officiellement la 14e génération, n'a pas encore de dates de sortie. Intel devrait améliorer les cœurs rapides et les cœurs basse consommation1, mais il y a peu de détails. Avec cette version, la gravure passerait en « Intel 4 », ce qui n'indique pas précisément la finesse : Intel considère simplement que c'est équivalent au 4 nm des autres fondeurs.

Avant Lunar Lake, il y a encore une autre sortie prévue : Arrow Lake. S'il n'y a pas de puces intermédiaires ou de changement de nom, il devrait s'agir de la 15e génération, avec là aussi des architectures mises à jour pour les deux types de cœurs. La gravure passerait en Intel 20A, soit environ 2 nm. Le A signifie angstrom, une unité 10x plus petite que le nanomètre.

Une feuille de route un rien datée.

Enfin, la 16e génération (si tout se passe bien) serait celle dont nous parlons au début de l'article : Lunar Lake. À part le fait qu'Intel partirait visiblement de zéro pour tenter d'optimiser la consommation de ses puces et que la partie graphique emploierait l'architecture Xe2, il y a peu de choses connues. Dans le meilleur des cas, les puces ne devraient pas débarquer avant 2025 ou 2026, avec une gravure Intel 18A (soit 1,8 nm, ou équivalent).

(Image d'ouverture : Dylan Ashe, CC BY-SA 2.0)


  1. Dans la 13e génération, les cœurs rapides ont évolué, mais pas les cœurs basse consommation.  ↩︎

Tags
avatar radeon | 

C’est ouf qu’une boîte comme intel patauge autant, d’autant qu’il savent qu’ils sont en pente descendante et qu’il faut frapper fort. Surtout avec la symbolique d’Apple qui est partie et qui fait maintenant les puces auxquelles on se compare dans les présentations …

avatar nova313 | 

@radeon

Ben dis donc, ton pseudo parle pour toi 😄

Cela dit je suis assez d’accord, mais pour moi, le problème, c’est que c’est une boîte avec un système de management vertical à l’extrême, et le temps qu’une pièce bouge, y’a 3 ou 4 générations qui sont sortis.
Ce genre de grosse boîte, y’a une synergie tellement énorme, qu’il est presque impossible de faire un changement de cap.
Intel se dirige petit à petit vers le précipice.

avatar Paul Position | 

@nova313

Tu voulais écrire "inertie" je suppose ?

avatar nova313 | 

@Paul Position

Yep. J’ai découvert que je me relisais de plus en plus car j’ai l’impression que iOS me fait des traductions bizarres de temps en temps 😕

avatar ratz | 

@nova313

Ouille ceste trésor péniblement, j’en pensée utilisera Gboard for enable

avatar ⚜Dan | 

@nova313

Check ton clavier lol

avatar lmouillart | 

Mauvais choix 1 : Garder des unités de productions inhouse et US
Tous les autres concurrents sont fables. Ils ont tiré parti des investissements titanesques de leurs fournisseurs grâce à la prédominance l'utramobilite. Cela leur a permis d'avoir des procédés de fabrication à la pointe de la technique.

Mauvais choix 2 : Intel s'est désengagé : vente de StrongARM, puis est revenu avec de l'x86 puis s'est vautré dans l'ultramobilité

Mauvais choix 3 : Intel a cru à fond dans la très haute (trop haute technicité) : VLIW. Quand on a des moyens quasi illimités et les meilleurs ingénieurs du domaine, ça n'aboutit pas forcément à proposer des produits qui souvent se peaufinent grâce aux contraintes.

Mauvais choix 4 : Intel à bien vu que ça allait de mal en pis alors ils se sont diversifiés dans bon nombre de mauvaises solutions logiciels, McAfee n'a pas été leur meilleure acquisition.

Mauvais choix 5 : Abandon des dGPU après la i740

Mauvais choix 6 : Être resté cantonné aux iGPU de moyenne gamme pendant trop longtemps, AMD et Apple ont montré qu'on pouvait rester en intégrer et tirer parti des lacunes avec d'autres forces.

Et probablement bien d'autres mauvais choix.

Je dirais comme ça qu'ils souffrent du même souci que Microsoft, Apple, Google et d'autres : trop de confiance en soi, trop de moyens, trop de complexité technique et organisationnelle et pas assez de concurrence en face.

avatar IceWizard | 

@lmouillart

« Je dirais comme ça qu'ils souffrent du même souci que Microsoft, Apple, Google et d'autres : trop de confiance en soi, trop de moyens, trop de complexité technique et organisationnelle et pas assez de concurrence en face. »

Tous ses problèmes me font plutôt penser à la chute de la maison IBM, qui n’est plus qu’un acteur de moyenne importance, après avoir été le leader mondial absolu de l’informatique, et la première capitalisation boursière mondiale dans les années 80.

C’était très bizarre quand IBM a du vendre toute son activité micro-informatique au chinois Lenovo, en 2004 !

avatar smog | 

@IceWizard : IBM a lâché les machines de bureau, mais reste un poids lourd dans le cloud et les microservices (sinon le plus gros ?)

avatar whocancatchme | 

@radeon

Je crois qu’il ne faut pas se leurrer c’est la techno choisie il y a maintenant une 40aine d’année qui ne pourra pas suivre tout simplement. Ça a été prouvé… ils sont tout simplement dans la 💩

avatar Arthegor | 

@radeon

Après le changement dans le monde PC est bien plus compliqué. Apple étant les seuls à proposer des Mac, elle peut rapidement changer de technologie sans trop de casse.

Dans le monde PC on est bien plus immobiliste à cause de la multiplicité des configurations, de la compatibilité avec les anciens programmes/périphériques, et d’une adoption par le grand public bien plus longue.

Ce qui fait que par exemple les processeurs itanium n’ont pas trouvés leur public, l’alimentation 12 v peine à se démocratiser, le Thunderbolt n’est pas très développé, et que Windows possède encore deux panneaux de configuration.

avatar R-APPLE-R | 

Le Titre 👏🥳🥂😈

avatar bunam | 

@R-APPLE-R

C'est la guerre des titres entre journaliste maintenant ;)

avatar Biking Dutch Man | 

Les développeurs du Newton demandaient déjà à l’industrie des performances par watt! Et avaient choisi un des premiers processeurs ARM. Des visionnaires!

avatar IceWizard | 

@Biking Dutch Man

« Les développeurs du Newton demandaient déjà à l’industrie des performances par watt! Et avaient choisi un des premiers processeurs ARM. Des visionnaires! »

C’est logique dans la mesure où le Newton était l’un des premiers systèmes informatiques mobiles puissants, ayant besoin d’une certaine autonomie, avec une batterie minuscule.

Attention à la formulation, l’entreprise ARM n’existait pas à l’époque. ARM était le nom d’une technologie de processeurs développée par l’entreprise anglaise Acorn, pour remplacer les processeurs 6502 (les mêmes que l’Apple II) qu’elle utilisait pour ses premiers micro-ordinateurs. ARM signifiait « Acorn Risc Machine ».

A ma connaissance, c’est la première boîte de micro-informatique à concevoir ses propres processeurs, pour fabriquer ses propres ordinateurs, au lieu d’utiliser des processeurs génériques du marché.

Quand Apple, Acorn et VLSI ont créé une co-entreprise à Cambridge en 1990, pour développer les technologies ARM d’Acorn, ils ont baptisés la nouvelle société ARM, gardant l’acronyme, mais avec une signification différente : « Advanced Risc Machine ».

avatar occam | 

@Biking Dutch Man

🚂 « Les développeurs du Newton demandaient déjà à l’industrie des performances par watt! »

Qui d'autre, le 6 juin 2005, demandait à l'industrie des performances par watt ?
Vous vous en souvenez sans doute.
« When we look at Intel, they've got great performance, yes, but they've got something else that's very important to us. Just as important as performance, is power consumption. And the way we look at it is performance per watt. For one watt of power how much performance do you get? And when we look at the future road maps projected out in mid-2006 and beyond, what we see is the PowerPC gives us sort of 15 units of performance per watt, but the Intel road map in the future gives us 70, and so this tells us what we have to do. »
Ainsi parlait Zarathoustra Jobs. Ainsi tourne la manivelle.

Il est instructif de considérer le rapport entre performances et consommation à l'époque où l'architecture x86_64 prenait son ascendant pour finir par dominer le marché. Cf. fig. 1, 2, 3 :
https://www.jstage.jst.go.jp/article/ipsjtrans/4/0/4_0_217/_pdf/-char/en
ARM consommait relativement peu en termes absolus, mais offrait des performances par watt plus faibles que x86_64. Parmi les échantillons examinés dans cette étude, ce n'est que vers la fin de la décennie 2001-2010 que qu'un exemplaire ARM atteint la moyenne des CISC 64 bits d'Intel. Il leur aurait fallu être très humbles, très clairvoyants, et empreints de l'esprit critique qui semble les avoir quittés avec Andy Grove, pour remplacer des chevaux gagnants.

Autre enseignement : le bon rapport de performances par watt de l'architecture DEC Alpha, tant qu'elle était développée. (Le benchmark Dhrystone utilisée dans cette étude est single-thread, ce qui pénalise les Alpha, mais ça donne une idée.) Architecture RISC exceptionnellement lucide, scalable à la verticale comme en parallèle, Alpha aurait pu renvoyer x86-64 dans le rang. DEC développant avec grand succès la ligne StrongARM (au même moment que le 610 qui équipait les Newton que vous évoquez) , la synergie maison aurait pu être exploitée par Apple, si Apple avait adopté une perspective à long terme dès 1997/98. Avec une solide base industrielle à l'appui, et une approche également industrielle d'Unix. Au lieu de quoi, deux changements violents d'architecture en 15 ans.

avatar Biking Dutch Man | 

@occam, @IceWizard

Merci pour vos réponses très instructives, je mesure la profondeur de votre culture informatique. En attendant mon Newton 2100 fonctionne toujours! Bon week-end.

avatar Ceylo | 

Leaders sur la partie graphique en 2023-2024… ben ya du boulot.

avatar ohmydog | 

Qui croit en leur finesse de gravure ? Ils ont beaucoup de mal avec du 10nm… passer à 2nm.
Ça parait tellement loin pour eux

avatar Dimemas | 

C’est d’ailleurs pour ça qu’ils passent au 7nm… et que ça équivaut au 5nm

Je ne veux pas les défendre mais lire des choses comme ça, il n’y a que des sites macg pour ca

avatar radeon | 

Ouaip quel bourbier, pourtant je reste persuadé qu’ils pourraient sortir un truc ouf s’ils se bousculaient un peu.

avatar 0MiguelAnge0 | 

Le 4nm n’est plus que du pure marketing. Jusqu’au 28nm, il y avait une relation simple entre la funesse et les dimensions. Tout ke monde utilisait la distance entre le drain et la source du transistor.
Avec l’arrivée du thinFet, tout à changer et lien est moins évident. Cependant la vraie mesure est ke nombre de transistors qui augmentent. Mais parler de 15 ou 20 milliards, pas trés vendeur.

Donc tous les fondeurs parlent d’une finesse théorique comme au temps du 28nm et des transistors planars: s’il n’y avait pas eu des contraintes, la distance entre le drain et la source aurait continué à diminuer, augmentant la densité de transistors. Donc dans mon exemple plus haut de 20 milliards les fondeurs calculent de combien il aurait fallu rapprocher le drain et la source pour faire rentrer tout le troupeau et delà pondent leur nm équivalent marketing.

avatar dujarrier | 

J’espère que pour la 16ème génération Lunar Lake qu’Intel semble vouloir introduire vers 2026 aura au moins 2 innovations pour créer une architecture réellement de rupture / innovante :

1. Remplacement de la SRAM par de la mémoire-non-volatile (Non-Volatile-Memory (NVM)) type MRAM, FeRAM,…

2. Ajout du protocole CXL 2.0 (et même idéallement CXL 3.0) pour permettre l’utilisation par les OEM si ils le souhaitent de NVM / Persistent Memory (PMEM) type Nantero carbon nanotube NRAM, Everspin/Avalanche technology Magnetic MRAM…

Cela permettrait ENFIN d’ouvrir l’opportunité de réaliser des systèmes avec de la mémoire bi-stable de bout en bout « Normally-Off Computing / Instant On » qui ne consomme pas ou bien beaucoup moins d’énergie lorsqu’ils ne travaillent pas et démarre instanténement.

L’introduction d’élément fait avec l’electronique de spin (spintronique) (ex: MRAM) qui est dans les labos de R&D depuis des années serait probablement une avancée architecturale MAJEURE pour réduire la consommation d’énergie pour créer des systèmes « Normally-Off Computing / Instant On ».

avatar iftwst | 

Quel titre mon dieu !
🤪🤪🤪

avatar Dimemas | 

C’est un peu un article pour se rassurer entre macuser. Ouf nos puces ne sont pas à la rue.
Sauf que les utilisateurs de Windows s’en cognent complètement de tout ce blabla marketing et des puces Apple puisque ça marche sur du matos Apple.
J’en parlais justement cette semaine avec des dev qui fonctionnent uniquement sur Windows, pour eux les nouveaux Mac et leurs puces sont un non-événement et pour rien au monde ils voudraient de macOS

Donc imaginez une communauté web pro Windows 😂

CONNEXION UTILISATEUR