Intel et AMD font puces communes pour des portables fins et puissants

Florian Innocente |

Concurrents mais aussi partenaires quand les circonstances l'imposent, Intel et AMD vont concevoir une solution combinant les processeurs Core de 8e génération du premier avec un nouveau processeur graphique Radeon du second.

Le tout prendra place dans des portables fins mais puissants, prévus pour être montrés au premier trimestre 2018. Intel explique vouloir toucher un segment de clientèle qui achète aujourd'hui de gros portables, pour jouer ou pour des applications de création gourmandes, et de leur proposer de retrouver ces performances à l'intérieur de designs plus ramassés :

Aujourd'hui, la plupart des portables pour les clients exigeants sont des PC contenant des processeurs de la série Core H et des cartes graphiques dédiées [signées AMD ou NVIDIA, ndlr], ce qui donne des machines d'une épaisseur moyenne de 26 mm. Comparez cela aux portables fins et légers qui se dirigent vers les 16 mm ou moins, certains allant même jusqu'à une finesse de 11 mm.

Chez Apple, les processeurs Core H sont ceux qui équipent les MacBook Pro 15". Et si l'on parle épaisseur, ce que vise Intel c'est précisément celle dont profitent les 15" actuels avec leurs 15,5 mm. Le fondeur n'en est pas encore à parler de tailles d'écrans ou d'objectifs sur le poids.

Avant, après, les composants mémoire, processeur et carte graphique, séparés sur la carte-mère, seront désormais réunis Cliquer pour agrandir

En combinant leurs compétences, Intel et AMD affirment pouvoir offrir minceur, légèreté et performances avec des composants processeur, mémoire et puce graphique qui occuperont 50 % de place en moins, libérant de la place pour augmenter par exemple la taille de la batterie, réduire la taille du châssis, trouver de nouvelles méthodes de refroidissement.

Ces composants aujourd'hui séparés sur la carte- mère seront réunis et reliés par la technologie Embedded Multi-die Interconnect Bridge d'Intel (EMIB). Un pont capable de connecter des semi-conducteurs conçus avec des processus de fabrication très différents (plus besoin qu'ils aient la même finesse de gravure) et de les laisser échanger leurs données à haute vitesse.

Cliquer pour agrandir
Embedded Multi-die Interconnect Bridge d'Intel Cliquer pour agrandir

Reste à voir si Apple profitera de ces développements. Elle est toutefois cliente d'Intel et d'AMD. Ses MacBook Pro 15" associent depuis longtemps les puces graphiques d'Intel (lorsque la consommation doit être limitée) à celles d'AMD (lorsqu'une application a besoin de puissance) et le système alterne entre les deux. À l'avenir, cette distinction n'aura peut-être plus lieu d'être. Autre option sinon, qu'Apple s'occupe toute seule de son processeur graphique dans les toutes prochaines années, ce qu'elle a déjà commencé à faire pour les iPhone 8 et X. Mais le jeu en vaut-il la chandelle sur Mac ?

Tags
avatar misterbrown | 

C'est Darwin, face à l'extinction, les espèces menacées unissent leur forcent pour subsister face au prédateur ARM.

avatar C1rc3@0rc | 

Heu... non. en tout cas c'est pas la seule cause

Intel a developpé les unités graphiques dans ses x86 core i3/5/7 dans le but d’asphyxier AMD et Nvidia en les privant des benefices sur les GPU d'entree de gamme.

Le resultat a ete un echec: Nvidia s'est renforcé sur le haut de gamme, est devenu la référence autant en GPGPU qu'en travail graphique et video et reste le plus gros concurrent d'Intel sur le HPC.

AMD s'est relevé au niveau des microprocesseur avec les Ryzen, sans processeur graphique integre, et ses APU qui ont fini de poser la derniere pierre sur l'echec monumental et onereux de l'Atom qui a ete mis en terre par ARM.

La Intel annonce quelque chose qui semble enterrer l'inclusion systematique de ses unites graphique indigentes dans les gamme core i. Pour les remplacer par des GPU AMD...

Cela implique aussi logiquement la mort des CPU Core-M vu les raisons données...

Le hic, c'est qu'on parle de processeur a destination de portables tres fins.
Et le probleme autant avec le X86 et les GPU Amd, c'est qu'aux niveau efficacité energetique les deux sont mauvais, et pas qu'un peu.

Alors on peut se dire qu'Intel est devenu realiste et face a ses echec renonce a tuer AMD et Nvidia. On peut aussi se dire qu'Intel a effectivement la petoche de son existence avec l'arrivée des PC ARM sous Windows.
Mais la cible principal c'est probablement Nvidia.

Et honnêtement Intel est top pervers pour faire juste aussi simple. Et ce qu'il y a derrière est forcement un truc tordu et vicieux comme Intel en est spécialiste.

Est ce qu'Intel va annoncer le rachat d'AMD d'ici peu?
Ce serait un coup de tonnerre parce que de facto Intel deviendrait le seul producteur x86, donc serait en position de monopole absolu sur le PC et passerai en position de force sur le serveur et le HPC.

avatar ovea | 

C'est pas le problème survivre et de se reproduire mais de voir arriver et disparaître des organes dans les processeurs pour rester globalement vraiment utiles aux ordinateurs portables ?
Les besoins ne portent que peut sur les capacités graphiques pour afficher sur un écran, mais sur leurs possibilités de calculs amenées à s'étendre et se diversifier pour aborder le nouveau sujet d'actualité, le traitement de données en acquisition temps réel ☠️

avatar marc_os | 

Intel veut donc offrir des portables fins mais qui ne permettent pas de jouer ?
(D'après ce que j'ai entendu dire, on ne peut pas jouer avec une CG autre que provenant de NVidia, d'ailleurs Mac Pro, AMD, et toussa).

avatar Bounty23 | 

@marc_os

On ne peut pas jouer avec une carte autre que Nvidia ? ??? elle est pas mal celle là !

avatar fousfous | 

@noixdecitron

Bah c'est ce qui se dit beaucoup ici...

avatar C1rc3@0rc | 

Faut pas croire tout ce qui se dit, faut verifier les betises et les fake news vehiculés par les fanboys et les haters, et ceux qui parlent en connaissant rien au sujet...

AMD et le seul a équiper les deux dernières consoles du marché (Play station et Xbox) et si les performances en jeux sont moins bonnes que les GPU Nvidia et qu'il manque des fonctions specifique aux GPU Nvidia sur les CPU AMD, ça rend pas la chose impossible.
Plus encore, si dans le milieu du calcul GPGPU Nvidia est de loin le leader, AMD a des niches ou son architecture est plus efficace que celle de Nvidia... sans parler des mineurs pro de crypto-monnaie virtuelle, qui ne jurent que par AMD.

Apres, ce qui est vrai c'est que niveau des soft pro du secteur graphique, Nvidia est la reference incontournable (meme si quelques rares applications sont developpées pour AMD, genre celle d'Apple) et les jeux sont conçus pour les GPU Nvidia et sont ensuite adaptés pour AMD dans la majeure partie des cas.

Et puis le tres gros probleme de AMD, c'est l'efficacité energetique: elle est tres mauvaise.

avatar pocketalex | 

@C1rc3@0rc

"Faut pas croire tout ce qui se dit, faut verifier les betises et les fake news vehiculés par les fanboys et les haters, et ceux qui parlent en connaissant rien au sujet..."

on aura tout lu de ta part...

avatar Stardustxxx | 

@pocketalex
Un moment de lucidité!!

avatar Benitochoco | 

Beaucoup de jeux sont parfaitement optimisés pour Nvidia, la gamme des éditeurs est plus petites pour AMD. Mais bon, c'est une guerre comme Mac et PC !

avatar armandgz123 | 

@marc_os

C'est n'importe quoi, je n'ai pas du Nvidia et tout mes jeux tournent parfaitement en 4K au maximum.

avatar Zoroastre | 

J’espère que c'est un troll ou alors t'es vraiment un sacré noob :D
Les Vega d'AMD on des résultat spectaculaire avec des api comme Vulcan et Dx12
Et tu peux jouer a pratiquement tout les jeux existant en ultra et réso 4k avec

avatar Mamdadou | 

Si les fabricants voient ce message, NE CHANGEZ PAS LA TAILLE DU CHASSIS. Personnellement une épaisseur de moins de 17mm est largement suffisante et une batterie plus grosse ne fera pas de mal

avatar LeGrosJeanLou | 

Attention, on va bientôt voir apparaitre une tripotée de gus pour nous expliquer qu'en dehors d'Nvidia on ne fait rien et que Intel signe là son arrêt de mort, que c'est foutu pour eux, que la finesse de gravure ça sert à rien.

NB: Je ne serais pas étonné d'apprendre qu'Apple a participé à l'élaboration de cette puce, et je serais curieux de savoir dans quelle mesure la proximité des chipsets sur le SoC va contribuer aux performances. Ce qui est certain c'est que ça va compliquer le boulot de Nvidia pour proposer des puces mobiles plus économes.

On verra bien !

avatar Crkm | 

“Aujourd'hui, la plupart des portables pour les clients exigeants sont des PC“
Même eux sous-entendent que les macbooks sont des machines chères et peu puissantes ?

avatar algounet | 

Ca fait un moment qu'Apple ne met plus de carte graphique dans ses portables (hors 3000€), la plupart des acheteurs de mbp ne savent même pas ce que c'est de toute façon, autant l'enlever et augmenter les prix au passage.

avatar en ballade | 

une carte graphique dédiée dans un macbook ? depuis quand?

avatar pocketalex | 

Intel + AMD mouhahahaha

Quel intéret ? vu qu'un Soc d'iPhone est plus puissant et fanless !!!!

avatar k43l | 

Mais oui continue de croire des benchmarks plus que biaiser et qui ne juge pas les processeurs ARM et x86 sur les même critères.
Le seul critère comparable est sur le GPU.

avatar pocketalex | 

@k43l

il me semble, au vu du ton de ton commentaire, que tu es passé à coté de l'ironie du mien ?

Je ne faisais qu'ajouter un tacle à ceux qui croient qu'une puce de téléphone basse consommation, si performante soit-elle, et elle l'est, arrive à la hauteur d'une puce d'ordinateur portable moyen et haut de gamme

CONNEXION UTILISATEUR