Intel lancera son premier GPU dédié en 2020

Stéphane Moussie |

C’est en 2020 qu’Intel concurrencera directement Nvidia et AMD sur le marché des cartes graphiques dédiées. Le fondeur a annoncé la période de lancement, sans plus de précision, sur Twitter.

Intel occupe d’ores et déjà une place importante sur le marché des GPU avec ses modèles intégrés aux CPU, mais il veut passer la seconde en créant des « solutions graphiques dédiées haut de gamme destinées à un large éventail de produits. »

Pour se lancer dans la bataille, Intel a recruté l’année dernière Raja Koduri, un expert des GPU passé par Apple et AMD, et mis en place une nouvelle division.

Est-ce que l’on trouvera des GPU Intel dans de futurs Mac? Rien n’est moins sûr. 2020, c’est l’année à partir de laquelle Apple commencerait à commercialiser les Mac à processeur ARM. Or, non contente de faire des CPU ARM maison, Apple conçoit aussi les GPU de ses appareils iOS depuis peu.

avatar Yacc | 

Ils ont enfin finalisé Larrabee ? ?

avatar fousfous | 

J'attend des GPU Apple avant les CPU Apple.

avatar Yacc | 

@fousfous

Sur Mac l’un ne viendra pas sans l’autre ?

avatar fousfous | 

@Yacc

Bah pourquoi ça? Avoir un GPU Apple ne posera pas de problèmes de compatibilité comparé à un CPU ARM.

avatar Yacc | 

@fousfous

« Bah pourquoi ça? »

Parce que ce serait idiot ?

avatar fousfous | 

@Yacc

Et pourquoi ce serait idiot donc?

avatar Yacc | 

@fousfous

Désolé j’ai commenté par inadvertance un te tes propos ?

avatar fousfous | 

@Yacc

Tu sais une attaque personnelle n'est pas un argument.

avatar Yacc | 

@fousfous

Je ne cherche ni à t’attaquer, ni à te convaincre de quoi que ce soit, ni à argumenter vainement ?

Encore désolé d’avoir par inadvertance réagi à un de tes propos ?

avatar fousfous | 

@Yacc

Vive le niveau de refuser le dialogue...

avatar Yacc | 

@fousfous

Je ne sais pas si tu joues un personnage ou si tu es un adolescent, mais tous tes propos sont systématiquement fantaisistes et tes interactions avec les autres toujours veines... donc je m'abstiens d'interagir avec toi.

avatar Mrleblanc101 | 

@fousfous

Parce qu’Apple ne conçoit pas de « CPU » ni de « GPU », mais des « SOC (System-on-a-chip ». Ce serait beaucoup de complexité inutile de developper un GPU pour le remplacer par un SOC un/deux ans après

avatar IceWizard | 

@fousfous
"J'attend des GPU Apple avant les CPU Apple."

Tu veux parler de GPU Apple sur des Mac Intel ? Moi aussi j'attend ça avec curiosité.

avatar Yacc | 

@IceWizard

« Moi aussi j'attend ça avec curiosité. »

Tu y crois une seconde ?

Sans passage à un CPU ARM strictement aucun intérêt pour Apple de se lancer sur ça.

Une part conséquente des machines livrées s’appuie sur des GPU intégrés Intel le restant sur de très abordable solution AMD.

Le rapport coût/bénéficie semble difficilement pouvoir justifier une telle opération.

avatar fousfous | 

@Yacc

L'intérêt c'est d'avoir un GPU parfaitement adapté à ses besoins, ça pourrait arriver d'abord sur les futurs Mac Pro et autres machines avec un GPU dédié. Si Apple a les moyens d'offrir un bon GPU il y a tout intérêt à le faire.

avatar Yacc | 

@fousfous

?????

avatar Yacc | 

Intel doit trouver des relais de croissance, c’est déjà le premier acteur en volume du GPU, il y a déjà eu de grosses ambitions avec le projet Larabee qui a connu la fin qu’on connaît.

Sur le papier Intel à les moyens de produire quelques chose d’interessant.

wait & see

avatar san_ | 

Premier GPU dédié Intel ?
https://en.wikipedia.org/wiki/Intel740

avatar C1rc3@0rc | 

@san_ |

Merci de ce commentaire utile qui nous rappelle qu'Intel n'en est pas a son premier essai en la matiere.

On peut se poser la question de l'interet d'Intel dans le GPU vu sa volonté d'equiper ses CPU d'unité graphique et ses tentatives malheureuses de produire des GPU.

L'idée derriere est tres simple: couler la concurrence, autrement dit NVidia et AMD.
Intel est incapable depuis des annees d'augmenter la puissance de ses processeurs x86 (celle du core, pas des coprocesseurs qui se multiplient pour compenser la stagnation des core), et de plus en plus l'informatique utilise le GPGPU (capacité de calcul generale du GPU) dans tous les domaines hi-tech (pseudo IA, simulation en physiques, big data, modelisation de systemes complexes,...)

Aujourd'hui disposer d'un puissant GPU est plus important que disposer d'un puissant CPU dans beaucoup de domaines, et c'est de plus en plus vrai dans le secteur des serveurs.
On voit des machines de forte puissance qui utilisent plusieurs GPU ou ASIC piloté par un petit CPU...

Intel est donc face a un mur avec son x86, et autant Nvidia qu'AMD tirent leurs revenus principaux des GPU.

Intel avait donc eu l'idee d'installer des unités graphiques dans ces x86 afin de priver AMD et Nvidia de revenus, ce qui a partielement marché contre AMD. Mais le besoin de puissance GPU a enormement augmenté et l'indigence des unités graphiques d'Intel a maqué tres vite ses limites avec un retour ces dernieres annees de PC a GPU (meme chez Apple)

AMD en a profité en plus pour mettre un coup a Intel avec ses CPU Ryzen et IBM et NVidia developpent conjointement des serveur et stations embarquant CPU et GPU des deux.

Intel est aux abois et doit sauver son Titanic (x86) une fois de plus.

Savoir si Intel va etre capable de faire un GPU correct n'est meme pas la question, le probleme c'est que l'interet de faire un bon GPU est antagoniste de l'interet de maintenir le x86.

On avait vu a quel point Intel est englué dans le x86 avec le projet Larabee, qui etait rien d'autre qu'une tentative de donner au x86 la puissance de traiter les données graphiques. C'etait l'inverse d'un GPU, une absurdité, et un echec aussi massif et qui a ridiculisé Intel.

avatar Yacc | 

@C1rc3@0rc

Comment peut on systématiquement choir dans ces outrances aveuglantes obérant l’esprit ? ?

Tout dans ces propos de de l’ordre de la fiction et de la prise de ses fantasmes pour des réalités ??

avatar Yacc | 

@C1rc3@0rc

"Intel est aux abois et doit sauver son Titanic (x86) une fois de plus."

Rien que ça c'est une perle typique de Circé.

Le succés économique est pour lui le signe évident de l'échec.

Il applique cette implacable logique à Apple, au Mac et ici à Intel.

Le CA d'Intel est dix fois supérieur à ceux de NVidia et AMD.

Rien que les bénéfices de l’activité CCG (PC), qui sont en très forte croissance (x1,57 depuis 2015) est 2 fois supérieur aux CA de NVidia ou AMD. ?

Intel reste une trés belle machine à cash même s'il ne connaissent plus les croissances du passé et s'ils ont grand mal à saisir les relais potentiels de croissance.

Tout CFO rêverait d’un tel Titanic aux abois ???

Quel niveau de connerie outrée pour produire de telle bétise ineptes quand même !

avatar Yacc | 

@C1rc3@0rc

Quant au reste de la vision du marché et entre autre la part qui occupe el GPGPU c'est encore une fois du délire absolu.

Les construction intellectuelle mécanique pour donner un semblant de rationalité à ses dégoûts sont tout ce que peut produire Circé et ceux en recourant à tous les artifices de la post-vérité.

avatar Yacc | 

@C1rc3@0rc

"le probleme c'est que l'interet de faire un bon GPU est antagoniste de l'interet de maintenir le x86."

Il est aussi très impressionnant de constater que Circé est un futur récipiendaire du prix Turing de l’ACM pour avoir réussi à paralliser massivement les montagnes d’algorithmes qui jusqu’ici s’y refusaient ?

Ouvrant ainsi la voie à la domination des approches GPGPU devenue ainsi quasiment universelle ?

avatar el255 | 

Oui, Le i740 : j'en ai eu un à l'époque (mais l'article n'est pas tout à fais juste, Intel avait racheté cette technologie Real 3D, mais version amputée) Je crois que dans les archives de Toms'Hardware il y a un super article là dessus, dont entre autre les triches apporté aux logiciels de bench pour gonfler les performance du i740. M'Enfin le journaliste il avait quel age en 2000 ? Cordialement.

avatar Yacc | 

@el255

C’est vrai il y avait déjà eu cette expérience tellement oublable que je l’avais oubliée ?

CONNEXION UTILISATEUR