Le "Tick-Tock" d'Intel connaît un couac

Florian Innocente |

Le PDG d'Intel a reconnu hier que graver des processeurs toujours plus finement devenait une affaire plus ardue que par le passé. Par conséquent le passage du 14 nm, qui prévaut actuellement dans les puces Broadwell, au 10 nm va être plus long que prévu.

Brian Krzanich s'exprimait lors de la présentation des résultats financiers du groupe. Il a expliqué que la stratégie du "Tick-Tock" allait connaître pour la première fois une perturbation dans son équilibre depuis sa mise en oeuvre en 2007.

Brian Krzanich

L'étape "Tock" c'est l'occasion d'une nouvelle microarchitecture, l'étape "Tick" c'est son optimisation avec une finesse de gravure réduite. D'ici la fin de l'année, il y aura un "Tock" avec la sixième génération des processeurs Core dite "Skylake". Elle sera gravée en 14 nm comme les processeurs Broadwell ("Tick") que l'on trouve par exemple dans le MacBook Retina. Ce sera en quelque sorte le Snow Leopard d'Intel.

En 2016, Intel aurait dû proposer un nouveau "Tick" avec des processeurs "Cannonlake" gravés pour la première fois en 10 nm. Las, cette échéance est reportée au second semestre 2017. Pour ne pas passer 2016 les mains vides, Intel lancera dans un an une évolution de "Skylake" baptisée "Kaby Lake", toujours gravée en 14 nm. Ce sera ainsi la troisième fois que cette finesse de gravure est utilisée au lieu de deux.

Intel ajuste au passage la Loi de Moore qui a fêté ses 50 ans cette année. Entre 1965 et 1975, rappelle Krzanich, elle a édicté avec succès que la densité des transistors sur une puce doublerait tous les ans. L'auteur a ensuite adapté ses prévisions en tablant sur un doublement tous les deux ans.

Depuis les deux dernières générations, ce délai a été portée à deux ans et demi, constate le PDG. Celui-ci espère cependant ramener cet écart à deux années, en rappelant que le passage des 22 nm aux 14 nm avait aussi représenté un challenge technique.

Cette course à la finesse se déroule également dans les processeurs pour mobiles. La puce de Samsung installée dans le Galaxy S6 est gravée en 14 nm alors que sa concurrente dans l'iPhone 6 l'est en 20 nm. L'arrivée de l'A9 cet automne chez Apple sera peut-être l'occasion de rebattre une nouvelle fois les cartes.

Ce délai annoncé par Intel remet aussi en perspective l'annonce faite par IBM au début juillet. L'américain, aidé par Samsung et d'autres spécialistes, a réussi à porter la finesse de gravure à 7 nm.

D'après IBM, sa puce est 50 % plus petite qu'une autre gravée en 10 nm et les gains de performances et de consommation seraient de 50 %. La technologie, la méthode utilisée et les coûts sont viables dans la perspective future d'une production à grande échelle, assurait l'ingénieur d'IBM en charge du projet. La déconvenue d'Intel montre que ce n'est peut-être pas si simple.

Ce trimestre, Intel a annoncé un chiffre d'affaires de 13,2 milliards de dollars et un bénéfice de 2,9 milliards contre 13,8 milliards et 3,8 milliards il y a un an. C'est toutefois mieux que ce qu'escomptaient les investisseurs. Certaines activités se sont mieux portées (les data center) que d'autres (le secteur du PC). Brian Krzanich table sur l'arrivée de Windows 10 et de ses processeurs Skylake comme facteurs de relance dans l'industrie du PC.

avatar patrick86 | 

"Certaines activités se sont mieux portées (les data center) que d'autres (le secteur du PC)."

Logique : le Cloud. Moins de terminaux "intelligents" et puissants, mais toujours plus de data centers.

avatar C1rc3@0rc | 

@patrick86
+1

C'est vrai le cloud est une manne marketing comme l'industrie n'en dispose que rarement.

J'ajouterai aussi un élément: si on peut faire des terminaux plus rentables et qui nécessite moins de puissance avec le cloud, cela offre aussi un avantage pour les fabricants de serveurs: il suffit de multiplier le nombre de serveurs (et plus précisément de processeurs) pour - dans beaucoup de cas - augmenter la puissance de traitement. Le serveur est par définition un domaine ou le parallélisme est efficace.
Donc avec le cloud Intel est -pour l'instant- gagnant: ça masque la stagnation de la puissance des processeurs sur les PC et ça permet de vendre d'importantes quantités de processeurs pour serveur.

Au final avec le cloud c'est l'utilisateur qui se fait couillonner:
- il paye de plus en plus cher une puissance qui au mieux reste la meme, voire diminue.
- il n'a plus le controle sur ses donnees (elles sont sous contrôle de l'hébergeur...)
- il n'a plus le contrôle sur le traitement
- il est a la merci d'un bug, d'une action malveillante, de l'environnement politique...

Il faut aussi expliquer qu'en terme énergétique le cloud est une aberration: si les terminaux consomment moins parce qu'insuffisamment puissants, il faut compter que chaque accès a une données, chaque traitement implique de consommer de l'énergie a au moins 3 niveaux:
- terminal
- réseau
- serveur
Et cela sur des distances "planétaires", donc nécessitant une consommation conséquente.

Avec des terminaux puissants et autonome on reste au niveau local: le terminal!

avatar fousfous | 

Et après on vous allez vous étonner du passage aux processeurs ARM Ax sur les Mac...

avatar C1rc3@0rc | 

L'architecture des x86 (les Core i et Xeon d'Intel) est obsolète et de plus en plus difficile a maintenir, c'est un fait que l'on constate tous les jours.

L'architecture ARM (ou le POWER d'IBM) est plus efficace, plus souple, plus adaptable, plus moderne, et sa marge de progression est bien plus importante que celle du vieux x86, c'est une autre constatation que le temps ne fait que renforcer.

Mais le problème est au final le meme pour tout le monde: l'utilisation du silicium pour réaliser des processeurs a atteint ses limites physiques.
On voit que le 14 nm non seulement a été un enfer a réaliser, mais surtout qu'il n'apporte pratiquement rien, que ce soit en consommation et plus encore en puissance. Le passage a 10nm sera pire encore.

Si Intel constate que descendre en dessous de 10nm va être extrêmement difficile, il faut aussi comprendre que ce qu'a fait IBM pour atteindre le 10nm c'est sortir du sicilicium (enfin en partie).

L'avantage du silicium c'est son cout: faire du processeur (et des composants) bases sur le silicium est extrêmement rentable, jusqu'a 20 nm...
En dessous de 20 nm les contraintes sont telles que les couts augmentent, mais reste supportables pour des mastodontes industriels comme Intel ou Samsung. Si IBM a abandonne la production industrielle de processeurs en la confiant a GF c'est pour une question de rentabilité uniquement.

La techno d'IBM pour faire du 10nm, est comme IBM l'indique très couteuse par rapport a l'actuelle. La grande question reste de savoir si aller en dessous de 14 nm d'ailleurs a le moindre sens en terme de puissance et surtout d'efficacité énergétique!

La fin de la conjecture de Moore a montree qu'apres le 22 nm, c'est le type d'architecture qui permet de gagner principalement en puissance et en efficacité énergétique. Et la débâcle qu'est Broadwell ne fait que renforcer cette constatation.

avatar malcolmZ07 | 

@C1rc3@0rc :
Il me semble avoir lu qu'ils vont changer de matériaux justement car plus moyen avec le silicium.

avatar Bigdidou | 

J'imagine que le relai va être pris par des processeurs issus des nanotechnologies dans un avenir pas si lointain...

avatar simnico971 | 

@Bigdidou :
Nanotechnologies ? La gravure à 10 NANOmètres tu appelles ça comment ? :)

avatar Hideyasu | 

@simnico971 :
Je pense qu'il parlait d'une nouvelle architecture à base de nanotechnologie et d'intelligence artificielle.

Les nanotechnologies c'est l'avenir, par exemple dans le médical. Pourquoi pas l'informatique ?
Le fait de graver en nanomètre n'a pas de réel rapport avec les nanotechnologies ;)

avatar Stardustxxx | 

@Hideyasu
Nanotechnologie : peut être défini a minima comme l’ensemble des études et des procédés de fabrication et de manipulation de structures (électroniques, chimiques…), de dispositifs et de systèmes matériels à l’échelle du nanomètre (nm)...

CQFD ;)

avatar iPop | 

@Bigdidou :
C'est de l'ordre de l'atome, lâ natechnologie n'y apporterait rien. C'est tout l'édifice qu'il faut repenser.

avatar Bigdidou | 

@iPop :
"C'est de l'ordre de l'atome, lâ natechnologie n'y apporterait rien."
Tu es bien sûr de toi.

C'est tout l'édifice qu'il faut repenser."
C'est précisément ce que proposent les nanotechnologies.

avatar Bigdidou | 

@bigdidou :
Comme le précisent Hideyasu et ovea.

avatar Darth Philou (non vérifié) | 

@Bigdidou :
On arrive à des gravures de la taille d'un atome. Je ne vois pas ce que les nanotechnologies viennent faire ici.

Je pense plutôt que l'avenir passera par la lumière plutôt que l'électricité.

avatar C1rc3@0rc | 

@Bigdidou
Nano technologie, ça fait plus de 20 ans que les processeurs sont des nano technologies...

La question n'est pas le domaine de réalisation (finesse de gravure, complication de l'architecture permis par la diminution de taille,...) mais plutot comment changer de principe de fonctionnement, voire de concept.

Intel s'enferre - et s'enferme - depuis les années 70 dans le modele binaire et du processeurs (ensemble de transistors) sur silicium. Grace a sa puissance financière cette société a impose ce modele a l'industrie, pour une question uniquement de profit financier et par un modele monopolistique.
La solution (temporaire) d'IBM ne remet pas en question le principe, mais lui donne un peu d'oxygène, mais au prix d'une perte de rentabilité.

Apres, il y a d'autres voies, dont certaines conservent le modele binaire et d'autres pas, mais aujourd'hui aucune n'est industrialisable a moins de 10 ans. Sortir du x86 permettra de gagner un peu de temps, doper le silicium avec d'autre éléments retardera l'échéance, mais pas sur qu'on arrive a tenir 10 ans

avatar CNNN | 

Dans on voit que 95% des données créées depuis le début de l'informatique proviennent de 2014/2015..
Imaginez dans 10ans ...

avatar C1rc3@0rc | 

95%, peut être, mais il faut voir aussi la nature des données et pas seulement la quantité, et surtout l'utilisation et l'utilité de ces données: de la pub et des ragots egomaniaques ça occupe beaucoup de place, ça consomme beaucoup de puissance, ça charge beaucoup les réseaux mais c'est aussi périssable qu'inconsistant...

Apres on a aussi des machines en réseaux qui font de la transaction a haute fréquence pour le jeu financier, avec les catastrophe économiques (et humanitaires) que cela produit...

C'est similaire au logiciel: on a une pullulation de soft du niveau du coussin peteur, mais les softs de qualite et productifs sont de plus en plus rares...

avatar Giloup92 | 

Donc, Intel a fait Tock Tock...

avatar phoenixback | 

@Giloup92 :
Qui est la?

avatar r e m y | 

Je les confonds toujours tous les 2.... Sur la photo c'est Tic? Ou c'est Tac?

avatar bompi | 

J'ai toujours trouvé que parler de "Loi de Moore" était une ineptie.
On peut parler de la loi de conservation de l'énergie : ça a du sens (sous réserve de contextualiser correctement).

Là, c'est simplement qu'on se fixe des objectifs qu'on cherche à atteindre... jusqu'à ce qu'on n'y parvienne plus. Ce n'est donc pas une loi au sens scientifique. Mais évidemment, la formule est répétée à l'envi sans se poser de questions. Bof.

avatar SIMOMAX1512 | 

Windows 10 comme facteur de relance , ils avaient fait le même pari pour le passage de 7 à 8 mais dans le fond la grande majorité sans fiche et achète un ordi quand le besoin s'en fait sentir et non pas par rapport à Windows.

avatar Giloup92 | 

@bompi
Disons que c'est une constatation empirique, à peu près vérifiée dans les faits.

avatar poulpe63 | 

Intel, ça "stagne", vivement AMD ZEN, pour 2016 et voir ce qu'il a dans le ventre :)

avatar Mrleblanc101 | 

@poulpe63 :
AMD est 10 ans en arrière... Faut vraiment pas compter sur eu pour rien ! Vivement les puces ARM pour desktop

avatar le ratiocineur masqué | 

On parle de tik-tok qui fait tok-tok-tok.... oui je confirme Mr Intel, votre moteur à cash fait un bruit pas normal.

avatar cedric1997 | 

«L'américain, aidé par Samsung et d'autres spécialistes, a réussi à porter la finesse de gravure à 7 nm.»

Hum, bizarre, la plupart des experts s'entendait qu'il serait difficile de descendre sous la barre des 7 nm... Chose sûre, on ne verra sûrement jamais en dessous de ce fameux 7 nm.

Faut pas oublier une chose: un atome de silicium a un rayon de 0,111 nm. Donc un diamètre de 0,222 nm. Du coup, lorsqu'on grave en 7 nm, il n'y a que 63 atomes d'épais... Il me semble avoir lu que selon certains scientifiques, il serait impossible de descendre sous la barre des 50 atomes. Pas qu'on ne pourrait pas le graver, mais à ce moment, les transistors se mettraient à obéir plus à la mécanique quantique qu'à la physique «standard».

avatar le ratiocineur masqué | 

"Intel ajuste au passage la Loi de Moore qui a fêté ses 50 ans cette année. Entre 1965 et 1975, rappelle Krzanich, elle a édicté avec succès que la densité des transistors sur une puce doublerait tous les ans. L'auteur a ensuite adapté ses prévisions en tablant sur un doublement tous les deux ans.

Depuis les deux dernières générations, ce délai a été portée à deux ans et demi, constate le PDG. Celui-ci espère cependant ramener cet écart à deux années, en rappelant que le passage des 22 nm aux 14 nm avait aussi représenté un challenge technique."

Donc en fait la loi de Moore c'est une loi à laquelle on fait raconter ce qu'on veut ? Parce que si on "l'ajuste" pour s'adapter aux capacités techniques ... quel intérêt à la base d'avoir pondu une loi qui dicte/prédit l'évolution technique ?

avatar bompi | 

C'est ce que je dis. Ce n'est pas une loi mais, d'une certaine manière, un cahier des charges ou des objectifs à atteindre.
Mais c'est plus chic de dire "loi", ça vous a un côté scientifique et sérieux qui vous pose un peu là. Un bon argument marketing, de fait.

avatar C1rc3@0rc | 

@le ratiocineur ...
C'est pas une loi, c'est une conjecture, transformée par Intel en dogme.
Moore a extrapolé dans les années 70 un modele d'evolution de l'electronique. Il a ensuite revu cette projection dans les années 80.

Intel s'est employe a developper un modele économique basé sur le monopole et son instrument a été d'imposer la conjecture de Moore comme principe a suivre.
On est alors passe de la course au Ghz, a celle au multicore. Ca permettait de masquer le problème de l'efficacité energetique et surtout du développement de la puissance. Plus on s'est rapproché du 20nm moins le x86 parvenait a gagner en puissance.
Depuis Sandy bridge Intel fait du surplace avec le x86 et porte son discours sur l'efficacité énergétique, bien oblige face a la montée en puissance d'ARM.

Il faut rappeler que le x86 a failli mourir a plusieurs reprises et que c'est AMD (sic) qui a sauve le x86 en le transformant en processeur RISC 64bits. Apres Intel a fait du dumping pour casser AMD. Puis Intel s'est lance a l'assaut de Nvidia, toujours avec du dumping et des pratiques déloyales pour favoriser ses unité graphique contre les GPU et le GPGPU de Nvidia.

avatar ovea | 

@Bigdidou :
La nanoélectronique correspond à un véritable changement d'échelle dans les procédés de fabrication où les nanotechnologies auront sans aucun doute leur rôle à jouer (comme l'actualité de la recherche a pu le montrer) remettant en cause l'industrie de la litho gravure actuelle
… notamment en considérant des guides d'ondes où l'effet dissipatif s'efface au profit de la mécanique quantique

avatar ziedjo | 

Tout ça pour pouvoir jouer à Candy Crush aux chiottes, ou poster des trucs sur FB... Ça fait relativiser.

avatar drarigemualliug | 

Devrait-on préférer à l'achat une génération de machine doté d'un processeur "tick" étant donné les optimisations ou si les deux sont d'une fiabilité équivalente?

avatar C1rc3@0rc | 

Bonne question.

On voit que Broadwell est une catastrophe, alors qu'en principe c'est uniquement une évolution de la gravure. Mais on voit aussi que Haswell a été catastrophique, alors que c'etait une évolution de l'architecture.

En fait il faut attendre la génération "refresh". C'est le cas pour Haswell, le refresh a permis d'ameliorer les performances et de resoudre les bugs (celui de l'USB 3 en particulier)

Pour Broadwell, il faut attendre Skylake (qui sera finalement un refresh de Broadwell, les grosses avancées d'architectures venant dans un Skylake refresh courant 2017).

Bref actuellement il faut éviter les machines Broadwell.

Mais plus encore il faut faire attention a la famille de processeur qui equipe la machine.
Eviter les ATOM, les Core-M et les Core i3.
De préférence prendre un Core i5 pour un portable ou un desktop. Pour un desktop puissant, prendre le Core i7 le plus puissant possible.

Et il faut aussi prendre la meilleure fréquence possible. ATTENTION, la fréquence de reference qui vaut c'est la fréquence de base, celle qu'il faut chercher car indique en tout petit dans les spécifications. L'arnaque c'est qu'Intel indique en gros la fréquence max (jusqu'au 3.5Ghz) et plus tordu encore celle du TurboBoost: ça n'a aucune valeur! Le turboboost c'est du marketing et rien d'autre.

Et il vaut mieux prendre pour la majorite des besoins un 2 ou 4 core avec une frequence de base de 2.5ghz qu'un 6 core avec un turboboost de 3.8ghz: en fait un 6 core avec un turboost tournera en réalité soit a moins de 2ghz (voire en dessous du Ghz !) par core pratiquement tout le temps et on aura 1 core qui temporairement pourra atteindre 3.8Ghz alors que les autres seront éteint: donc le turbo boots c'est du monocore et pendant un temps très limite (TDP oblige)

CONNEXION UTILISATEUR