NVIDIA présente une carte dédiée au GPGPU

Arnaud de la Grandière |
Intel et NVIDIA se sont lancées dans une guerre ouverte qui risque de faire quelques dommages : alors que le constructeur de processeurs s'apprête à intégrer un chipset graphique dans tous ses processeurs, forçant ainsi la main de tous ses partenaires, NVIDIA a répondu à l'offensive avec une réponse du berger à la bergère, en offrant une carte graphique toute dévolue au GPU computing, répondant au petit nom de Fermi.

Gravé en 40 nm et offrant pas moins de 3 milliards de transistors, cette architecture a été conçue avec le GPGPU comme ligne de mire. Dotée de 512 unités de calcul, soit plus du double de la GT 200, Fermi promet d'être un monstre à broyer du calcul. Le directeur scientifique de NVIDIA, Bill Dally, a d'ailleurs insisté sur le fait que Snow Leopard tirerait parti de cette nouvelle architecture par le biais d'OpenCL. Mais Fermi offre en fait un nouveau compromis : alors que cette carte sera plus efficace pour le GPU computing qu'une autre carte 3D, elle offrira de moindres performances en accélération 3D pure et dure. On attend les premiers modèles basés sur cette architecture pour le début de l'année prochaine, alors qu'Intel continue de travailler sur l'arlésienne Larabee.

Reste à voir quel choix Apple compte faire dans cette guerre déclarée.



avatar CocoaPower | 

Pour une fois, j'ai l'impression que cette guerre des concurrents ne va pas dans l'intérêt des clients.

Les performances graphique s'annoncent en baisse pour la prochaine génération de Nvidia et d'Intel. Le nombre d'unité de calcul augment pour OpenCL, mais c'est souvent inutile pour les applications courantes.

avatar youpla77 | 

Les cartes vidéo deviennent surpuissantes, mais il n'y a que les heureux possesseurs de mac pro qui pourront éventuellement, si apple y consent, en bénéficier. Par exemple, ATI avec ses 5850 et 5870 qui ne sont pourtant pas très chère à l'achat ne sont accessibles que sur une machine à plus de 2000 euros et il en va de même pour les cartes nvidia. Comme je n'acheterais jamais un mac pro, ces cartes me seront inaccessibles. Tant pis pour moi :(

avatar oomu | 

@ youpla77

heu, je ne vous comprends pas. Vous voudriez mettre ces monstres où ?

Dans un imac?? tout viendra avec les déclinaisons futures. comme toujours.

-
>Les performances graphique s'annoncent en baisse pour la prochaine génération de Nvidia et d'Intel. Le
>nombre d'unité de calcul augment pour OpenCL, mais c'est souvent inutile pour les applications
>courantes.

ha?

j'ai toujours lu ça.

- 640ko suffisent pour les logiciels
- pas besoin de carte 3Dfx pour word
- 600mo sur un cdrom ? ça servira jamais
- un téléphone de poche ? comme si on avait besoin d'être joint tout le temps

etc etc.

oui, à terme, TOUT servira à faire des logiciels de comptabilité meilleurs.

avatar oomu | 

pour l'heure, ce sont des produits pour des besoins académiques/scientifiques.

avatar Hurrican | 

Et surtout, c'est une simple déclaration histoire que tout le monde ne se précipite pas sur les dernières Radeon surpuissantes qui créent bien du tort à leurs produits.
La jolie carte présentée... n'est qu'une maquette, ce n'est pas un prototype ! nVidia s'est fait prendre la main dans le sac par les journalistes qui ont examiné de près les photos.

avatar CocoaPower | 

@oomu

T'a pas tout pigé au GPGPU.
Ça fait plus de 2 ans qu'on l'utilise via CUDA, ça vient pas d'apparaître avec OpenCL.

avatar pecos | 

[quote]j'ai toujours lu ça.
- 640ko suffisent pour les logiciels
- pas besoin de carte 3Dfx pour word
- 600mo sur un cdrom ? ça servira jamais
- un téléphone de poche ? comme si on avait besoin d'être joint tout le temps
etc etc.[/quote]
Ouais... Facile !
Moi aussi j'aime bien que le matériel évolue.
Sauf que le matériel, ces derniers temps, et avec une constance désarmante, CONSOMME de plus en plus.

Ce genre de CG, avec autant d'unités de calculs, 3000000000 de transistors, finit par consommer presque autant qu'un four à micro ondes.
Si tu trouve ça NORMAL dans un MICRO ordinateur, ben pas moi.
Et ce ne sont pas "QUE", comme tu dis, les produits "académiques et scientifiques" qui ont ces défauts.
C'est une tendance lourde dans le petit microcosme des CG, de finir par être le poste le plus dispendieux en énergie, le plus générateur de chaleur, etc...

Donc, tant que ça ne restera pas au niveau d'une CG d'entrée de gamme en terme de consommation, pour moi ça n'a rien à faire dans un micro ordinateur, [b]quel que soit le BESOIN de puissance de calcul.[/b]
Chose que je ne m'aventurerai pas à critiquer, chacun voit midi à sa porte de ce point de vue.

avatar Artanis | 

En tout cas j'ai hâte de coder sur un cluster de ces bêtes-là...
L'architecture a été largement améliorée, et quand je vois ce qu'on pouvait faire avec un Tesla C1060...

Par contre je ne suis pas sûr que les performances en 3D soient si mauvaises. Certes, elles ne profiteront pas des unités double précision, mais celles-ci ont été ajoutées sans enlever quoi que ce soit de l'ancienne architecture. Au contraire, la bande passante a été améliorée et le nombre d'unités en simple précision a plus que doublé. Je ne sais pas dans quelle mesure les shaders OpenGL profiteront des améliorations de la gestion des threads cela dit.

[edit] je parle de calcul haute performance, personne n'a besoin d'un TFlop sur son bureau pour une utilisation courante. Pour ce cas-là, il y aura des déclinaisons sous-cadencées et "basse" consommation, ils ont quand même fini par se rendre compte que tout le monde ne voulait pas acheter une alim d'un kW...

avatar VJ_Lupin | 

avec le deveoppement des applications pour openCL ça ouvre de belels perspectives . reste aussi à quicktime de faire un effort pour pouvoir commencer à faire de bonnes applications qui tirent partie de ces nouvelles manières de gérer les threads. ça va faire espérons de superbes applications Grand Central dispatcher + Open CL + belle CG , ça promet

avatar oomu | 

@CocoaPower [05/10/2009 12:20]
>@oomu
>T'a pas tout pigé au GPGPU.
>Ça fait plus de 2 ans qu'on l'utilise via CUDA, ça vient pas d'apparaître avec OpenCL.

j'ai absolument tout pigé au gpgpu, au cpu, au ppu et au pmu, je réponds simplement par l'absurde à la critique plus haut que cela ne sert à rien. A vous de voir.

avatar oomu | 

>Ce genre de CG, avec autant d'unités de calculs, 3000000000 de transistors, finit par consommer
>presque autant qu'un four à micro ondes.

hmm, je ne vois rien de neuf par rapport à l'évolution des processeurs généralistes. Oui,on arrive à mettre toujours plus de transistors. notez que la réduction de leur gravure à permis d'en mettre plus pour une même dissipation thermique et consommation.

Ensuite, si l'exploitation pour toujours + vous dérange, il ne faut pas acheter.

>Si tu trouve ça NORMAL dans un MICRO ordinateur, ben pas moi.

je ne trouve cela ni normal ni anormal : c'est ce qui est fait. le terme de "micro" n'a guère de sens de nos jours.

>Et ce ne sont pas "QUE", comme tu dis, les produits "académiques et scientifiques" qui ont ces défauts.

je n'ai pas dit "que". j'ai dis exactement que pour l'heure, ce genre de produit s'adresse à des besoins académiques.

Quelques pros de l'infographie ou passionné de cuda me contrediront.

>C'est une tendance lourde dans le petit microcosme des CG, de finir par être le poste le plus dispendieux
>en énergie, le plus générateur de chaleur, etc...

ce n'est pas une tendance. c'est un fait.

>Donc, tant que ça ne restera pas au niveau d'une CG d'entrée de gamme en terme de consommation, pour
>moi ça n'a rien à faire dans un micro ordinateur, quel que soit le BESOIN de puissance de calcul.

je suppose que les gens sont libres de faire comme ils l'entendent, et c'est une bonne chose.

>Chose que je ne m'aventurerai pas à critiquer, chacun voit midi à sa porte de ce point de vue.

ok.

avatar oomu | 

>Si tu trouve ça NORMAL dans un MICRO ordinateur, ben pas moi.

le fait est, dans 5 ans, 10 ans, tout cela sera banal.

j'en ai lu tout autant dans le même genre y a 20 ans.

avatar Artanis | 

A noter que la puissance dissipée par un processeur ne dépend pas directement du nombre de transistors qui le composent...
A noter aussi que le terme micro-informatique a été forgé il y a quelques décennies, actuellement, ça serait plutôt de la nano-informatique.
Si ça peut en rassurer certains, la consommation monte aussi dans le domaine des super-ordinateurs et des stations spécialisées, et paradoxalement, une solution à ça c'est l'utilisation...de ces cartes qui consomment trop.

Exemple:
une grosse boîte avec des gros serveurs utilise des processeurs généralistes qui consomment 150W chaque (ordre de grandeur), pour une puissance de l'ordre de la dizaine de gigaflops. Là on lui offre une plate-forme qui fournit une puissance de l'ordre du téraflop, pour une consommation de 187W (pour les Tesla actuelles). Cherchez pour quel processeur le ratio puissance de calcul/puissance dissipée est le plus intéressant...
La conférence était principalement adressée aux gens qui ont besoin de faire du calcul Hautes Performances, catégorie qui utilise déjà des machines qui consomment énormément, et qui pourraient faire des économies avec cette technologie, par opposition au marché grand public qui n'a rien à faire d'un téraflop, et qui n'est pas concerné par les annonces de la semaine dernière. Pour ceux-là, il faudra attendre que nVidia parle de sa série 300. Pour l'instant, il n'y a rien à voir pour nos Mac, en somme.

avatar GStepper | 

"Reste à voir quel choix Apple compte faire dans cette guerre déclarée"

Ne pas prendre parti pour l'un ou pour l'autre et s'assurer qu'OpenCL saura tirer parti de ces solutions quand elles seront diponible pour le grand public, ce serait déjà pas mal...

avatar Almux | 

MG dixit: "Reste à voir quel choix Apple compte faire dans cette guerre déclarée."

- Celui de rajouter un ou deux Slot(s) et de l'espace dans les prochains Mac Pros... Peut-être...

avatar Feroce | 

"Celui de rajouter un ou deux Slot(s) et de l'espace dans les prochains Mac Pros... Peut-être..."

Eh oh, tu ne voudrais pas que le MacPro soit évolutif quand même ?
Enfin, ils trouveront à nous pondre une Efi64rev2 incompatible avec les cartes de l'ancien modèle...
Ce qui est important, c'est la beauté du boitier, pas qu'il puisse évoluer !
:-)

CONNEXION UTILISATEUR