NVIDIA : vers la fin de l'activité chipset

Anthony Nelzin-Santos |
NVIDIA a annoncé la fusion de sa division « chipset » avec celle de sa division « SoC » (system-on-a-chip, système sur puce), signant ainsi la fin de ses activités dans le domaine des chipsets.

Les 650 ingénieurs de la division chipset de NVIDIA travaillaient notamment sur les chipsets nForce, mais aussi les puces 9400M, que l'on connaît bien sur Mac, puisqu'elles servent à la fois de chipset et de composant graphique intégré dans la plupart de nos machines.

Si NVIDIA arrête cette activité, c'est parce que les fabricants de processeurs lui barrent la route : Intel n'a pas donné de licence à NVIDIA pour fabriquer des chipsets pour ses processeurs Core i3/i5/i7, et AMD pousse ses propres chipsets AM3. NVIDIA va donc redéployer ses efforts sur les systèmes SoC, qui cumulent processeur, mémoire et autres, et qui sont notamment utilisés dans les produits mobiles, grâce à une architecture ARM très adaptée.

NVIDIA développe ainsi la plateforme Tegra, que l'on retrouve dans quelques tablettes qui se veulent concurrentes de l'iPad, iPad équipée d'une puce A4 qui est elle aussi un système SoC, embarquant processeur et composant graphique. Un domaine de l'ultra-mobile dans lequel Intel n'a encore que peu de place, l'architecture x86 étant encore mal optimisée pour ces applications requérant une consommation la plus réduite possible pour une puissance la plus grande possible.

Côté Mac, on le sait, la prochaine vague de modèles qui devrait être équipée des nouveaux processeurs Intel devra abandonner la 9400M, comme c'est déjà le cas pour les iMac Core i5 et Core i7, qui utilisent un chipset Intel, probablement le P55 Express.

Cela ne veut pas dire que NVIDIA ne trouvera pas sa place dans les machines Apple : avec Optimus, sa technologie qui permet de passer à la volée du composant graphique intégré (peut-être le GMA HD d'Intel) à un composant graphique dédié plus puissant, NVIDIA a toujours une carte (graphique) à jouer dans les MacBook Pro.

Sur le même sujet :
- Nvidia suspend ses développements de chipsets
- La puce graphique des Core i3 et i5 pas si mauvaise que cela
- Optimus dans les MacBook Pro ? Ca se confirme
Tags
avatar pseudo714 | 
Et là on ne dit pas que intel nuit à la concurrence?
avatar noche84 | 
Il n'empêche, très dommage pour le consommateur ! Ces puces 9400M étaient très valable... Maintenant je n'ai aucune idée de la performance des nouveaux chipset graphiques d'Intel mais... C'est triste de se voir enfermé dans un seul choix...
avatar Liam128 | 
Dommage, le 9400M était quand même un excellent chipset, à la fois redoutablement économe et très satisfaisant sur le plan des perfs, il a à mon avis vraiment beaucoup contribué à faire de nos MB/MBP des machines d'exception. 'me demande ce qui va suivre... une chose est sûre, pour la partie graphique, je n'attends plus rien d'Intel.
avatar Hindifarai | 
Intel est nuisible déjà de par son architecture x86... ok je sors
avatar sekhmet | 
bien sur que Intel est nuisible à la concurrence, plusieurs procès sont en cours... réponse avec sûrement un paquet de milliard dans quelques années...
avatar divoli | 
C'est sûr qu'entre Intel qui profite de son quasi-monopole, ATI/AMD qui est dans les choux, et nVidia qui ne sait rien faire d'autre que de renommer les mêmes CG (il semblerait que cela soit amené à changer, prions mes frères), on est pas sorti de la panade.
avatar hawker | 
"Intel est nuisible déjà de par son architecture x86... ok je sors " perso j'attend avec impatience la futur achitecture massivement parralele pc d'intel. le x86 ct bien y'a 30 ans mais maintenant ça bride l'informatique mondiale.
avatar mathiasr | 
"l'architecture x86 étant encore mal optimisée pour ces applications requérant une consommation la plus réduite possible pour une puissance la plus grande possible" Intel ne peut pas corriger des erreurs vieilles de plus de 30 ans, les choix architecturaux qui ont guidé les premiers pas du jeu d'instruction x86 ne sont pas les mêmes que ceux d'ARM. Si aujourd'hui le petit processeur RISC est considéré comme le champion des perf/W ce n'est pas pour rien.
avatar shenmue | 
Cela pourrait, pourrait peut-être, ce n'est qu'un gros conditionnel, être au final positif pour les macs si Apple ne veut pas downgrader son bas de gamme MB (son seul portable aujourd'hui en dessous de 1000 euros) car cela voudrait dire obligatoirement une vraie CG à l'intérieur (sinon c'est GMA Intel, c'est à dire de la daube, même si on fera tourner des jeux avec là n'est pas la question). Peut-être verrons nous un décalage vers le haut de l'ensemble de l'offre CG sur Mac. Cela aurait le mérite d'être parfaitement synchrone et cohérent avec l'arrivée de Steam sur Mac. Si on peut jouer demain sur un Mac en dessous de 1000 euros et avec une vraie CG, mine de rien, ce sera une petite révolution. Attendons.
avatar shenmue | 
@Pseudo714:"Et là on ne dit pas que intel nuit à la concurrence?" Ils ont des procès en cours sur la tronche et ils sont mal barrés dans chacun d'eux. Intel joue le passage en force, en se disant que l'écrasement des concurrents vaut bien un paiement de quelques milliards de dollars dans 5 ans. Il est évident qu'ici "bloquer" Nvidia sur les chipset est un abus de position dominante très grave. Il y aurait d'autres concurrents valables à Intel cela relativiserait ce type de coup de force, mais là, comme on est obligé de passer par eux vu leur poids sur le marché micro, c'est bien un abus.
avatar Sylvain ALLAIN | 
@ Divoli AMD, dont sa division graphique ATI, est loin d'être dans les choux. Certes, au niveau processeur, la firme ne dispose pas d'un catalogue aussi fourbi qu'Intel, mais elle a des alternatives loin d'être ridicules... De même, son offre graphique est peut-être moins prolixe que celle de NVIDIA... En attendant, elle mène la danse côté performances et ne se perd en [b]mercatique[/b] "aléatoire" et ne cherche pas à [i]refourguer[/i] à tout va, comme vous le soulignez si bien ; des [b]GPU obsolètes[/b] en masquant leur véritable origine (leur génération) avec des patronymes à deux Francs six sous... Histoire de leur filer un coup de jeune ;-) Bien évidemment, on peut reprocher à ATI de fournir des puces de moyennes performances dans les iMac ou les Mac Pro, mais elle répond tout simplement à la demande de Cupertino qui continue de faire sourde d'oreille et à nous vendre des GPU d'entrée de gamme au prix fort. :-( @ Noche84 & Liam 128 Quant au GeForce 9400M. Intéressant à sa sortie, mais depuis, c'est un peu la "[i]lose[/i]"... Alors, il est tout à fait normal de le voir, [b]ENFIN[/b], tirer sa révérence.
avatar Almux | 
Apple ne va rien sortir, tant que tous les prototypes auront prouvé la fiabilité totale des chaînes hybrides. C'est d'ailleurs ce qui différencie les assembleurs PCs d'Apple... Il faut aller au-delà de l'aspect trappe-à-l'oeil à la mode.
avatar Hasgarn | 
Ben voila. nVidia voulait faire son passage en force avec des solutions intégrale, et conclusion, ils sont isolé de leur partenaires concurrents. Fallait bien que ça arrive. Je trouve ça bien, les constructeur vont de nouveaux pouvoir faire les configs qu'ils désirent, sans monopole juste avant. Heureusement, on aurait vu les pris augmenter de manière sérieuse avec la politique de nVidia…
avatar Mabeille | 
Abus de position dominante évident, que fait l'Europe là?? C'est sans doute plus utile que la connerie qui vient de nous demander de choisir un navigateur sur Windows!!
avatar iZorg | 
@ shenmue "Peut-être verrons nous un décalage vers le haut de l'ensemble de l'offre CG sur Mac." Que Steve t'entende... Ou au moins qu'il nous laisse la possibilité de le faire via une option...
avatar oomu | 
>Abus de position dominante évident, que fait l'Europe là?? ben procés, l'Europe travaille justement sur ce dossier intel, mais je suppose qu'il est + valorisant de se plaindre que le monde est un enfer corrompu de méchants (sauf vous bien sur) que de s'informer sur la vie de nos institutions.
avatar oomu | 
>perso j'attend avec impatience la futur achitecture massivement parralele pc d'intel. vous voulez dire larrabee pour les graphismes ? c'est du x86 en masse. sinon,intel a l'itanium, architecture radicalement nouvelle, mais donc compatible avec rien (si, linux bien sur) et donc peu utilisée, donc cantonnée au marché des super-calculateurs académiques donc ultra-cher. un échec commercial en quelque sorte, car à l'origine c'était censé succéder aux pentiums pour les serveurs d'entreprise >le x86 ct bien y'a 30 ans mais maintenant ça bride l'informatique mondiale. ça fait 30ans qu'ont le dit. On a quand même réussi à survivre.
avatar lennoyl | 
Il y en a encore qui croient en l' "Europe" ? ^^ Oui, l'Europe fera un procès à Intel et Intel perdra. Mais comme la somme demandée à Intel sera dérisoire par rapport à ce qu'il auront gagné d'ici là, ça ne servira à rien (tout comme ses interventions contre Microsoft). Vous croyez quand même pas qu'ils vont embêter leurs "copains" ?
avatar Armas | 
C'est probablement la raison de la hausse des prix affichées dans les publicités Apple. Moi j'ai jamais pu blairer ATI, deux de mes potes ont cramé une de leur carte graphique ATI, un avec un PC, un avec un Mac Pro, mon frere a de gros bugs avec ses applis de 3D Rendering sur imac, et elles ont une forte tendance à la surchauffe. Et puis faut voir un peu les emmerdes qu'on a eu avec les Imac 27" depuis 6 mois ... Question performances, pas de doutes, ATI est excellent. Mais je préfère tant qu'a faire ne pas changer de carte tous les 6 mois.
avatar Armas | 
@ Sylvain ALLAIN [20/03/2010 10:29] [Bien évidemment, on peut reprocher à ATI de fournir des puces de moyennes performances dans les iMac ou les Mac Pro, mais elle répond tout simplement à la demande de Cupertino qui continue de faire sourde d'oreille et à nous vendre des GPU d'entrée de gamme au prix fort. :-(] - Je suis on ne peut plus d'accord avec toi. Néanmoins, on peut reconsidérer la question autrement. Faut quand même se rendre a l'évidence: le développement est de moins en moins optimisé maintenant et parie sur les performances des machines de demain. N'ayons pas peur de le dire, aujourd'hui, la mode, c'est de coder un soft a la truelle avec deux pieds gauches. La ou avant, il aurait fallu 10 Mo pour faire tourner n'importe quel soft, il en faut aujourd'hui 10 Go. D'une certaine manière, limiter les perfs graphiques oblige les développeurs a se pencher un minimum sur le code pour limiter les pertes de performances. Et c'est pas un luxe. Je sais, c'est sans aucun doute pour des raisons d'argent, néanmoins, ça a un effet vertueux. @ Sylvain ALLAIN [20/03/2010 10:29] @ Noche84 & Liam 128 Quant au GeForce 9400M. Intéressant à sa sortie, mais depuis, c'est un peu la "lose"... Alors, il est tout à fait normal de le voir, ENFIN, tirer sa révérence. - Elles étaient pas si moches, mon ordi possède un des premiers chipsets graphiques GMA avec 64 Mo de ram partagée. Une épave, me direz vous, mais il n'y a que 3 situations dans lesquelles il rend l'ame : Le dessin vectoriel, la lecture video HD et les jeux après 2007 ... Pour le reste, il s'en sort haut la main. Et parce que j'entretient et optimise mon ordi, mes performances sont équivalentes voir meilleurs que celles de l'ordi de ma cousine acheté deux ans après avec un chipset 128. Je le regrette surtout par rapport aux macbook pro. Le combo Chipset + Carte Graphique est une idée de Génie. J'ai évalué les perfs sur l'un d'entre eux, et c'est énorme.
avatar divoli | 
@ Sylvain ALLAIN; Merci pour les précisions. Certains intervenants sur d'autres sites Mac en arrivaient à envisager que AMD/ATI pouvait se faire racheter par Apple, du coup j'ai cru que AMD/ATI était vraiment dans les choux. Je n'avais pas vérifié. En tout cas, on se retrouve très probablement d'ici à fin juin pour vos tests matériels (je parle de ceux des prochains MBP). Je suis impatient de les lire. @ Shenmue; [quote]Si on peut jouer demain sur un Mac en dessous de 1000 euros et avec une vraie CG, mine de rien, ce sera une petite révolution.[/quote] Oui, je suis d'accord avec l'analyse de ton post (je ne le cite pas entièrement pour ne pas prendre trop d'espace), et pas seulement pour les jeux. Il me parait clair qu'Apple ne va pas se limiter à des Intel GMA (de piètres performances et non compatibles OpenCL), mais qu'elle va rajouter des CG à mémoire dédiée à l'ensemble des Mac. Cela me parait plausible, et même très probable. Ce ne sera pas forcément des foudres de guerre, mais on devrait avoir droit à une jolie évolution. Et même, comme tu le dis très justement, une petite révolution. C'est pour le moment du conditionnel, certes, mais j'avoue que je la sens bien, cette hypothèse. Reste à connaitre les prix. Comme je ne crois pas à une augmentation tarifaire, j'espère qu'Apple ne va rien sacrifier à coté.
avatar Atlante | 
+1 avec Divoli, je suis le raisonnement Shenmue. Je rajouterai que le simple fait que les nouveaux macbook pro ne soient pas sortit il y a 3-4 semaines démontrent qu'Apple prévoit d'y intégrer une carte graphique Nvidia en plus du chipset intégré d'Intel. De même, les relations entre Apple et son fondeur x86 préféré semblant s'être dégradé, l'idée de ne pas reposer entièrement sur eux et de démontrer qu'elle aura toujours la possibilité de contourner les solutions que tentent de lui imposer ses partenaires ressemble vivement à l'attitude typique adoptée par Cupertino dans ces cas de figures. Ceci dit dans mon esprit pour les cartes graphique Nvidia c'est le mal et Intel c'est encore pire. L'idée de cummuler les deux dans nos prochains macbook est juste maléfique. :p Mais c'est hautement probable, et je rajouterai qu'Apple aura du mal à réussir deux fois de suite l'exploit de nous vendre des Macbooks GMA-only en nous convainquant qu'il y a de l'Or Pur là dedans. On s'y est déjà fait prendre une fois, mettons ça sur le compte de la découverte du monde Intel, y'a peu de chances qu'on se fasse réenculé de la même manière. (quoique... ) @Divoli: Les solutions graphiques d'AMD sauve la baraque pour le moment. Quand AMD sort une nouvelle carte, c'est en général justifié, et même si en terme de puissance pur Nvidia a reprit l'avantage, le ratio puissance/$ penche du côté d'ATI. Et l'immense qualité des solutions d'AMD et de n'être pas distancé par les cartes les plus puissantes (et bien plus chère) d'en face. Pour les processeurs, je suis pas compétent pour en parler. J'ai aussi l'impression qu'ils se sont écroulé derrière la puissance marketing d'Intel, je suis même incapable de nommer un processeur AMD plus récent que l'Athlon XP 2400+. .
avatar Sylvain ALLAIN | 
@ Divoli, Alors à bientôt @ Shenmue Effectivement, à moins de 1000 euros, il y aurait un [b]vrai[/b] progrès. Attendons. @ oomu On peut pas dire le contraire... ;-)
avatar Un Vrai Type | 
Assez d'accord avec ce qui a été dit (pas au niveau des jeux, mais au niveau de grand central dispatch, openCL etc... ce qui revient au même). La question qui me tente est : Est-ce que Microsoft supportera des versions ARM de leurs logiciels ? Parce que après tout, c'est presque la seule porte de sortie à la situation que vous décrivez (la justice ne fonctionne pas selon des temps humains... Dans 5 ans, la somme demandée sera dérisoire parce que dans 5 ans ce problème semblera aussi sérieux et grave que du pipi de chat dans un jardin...
avatar skystef | 
Et voilà comment Intel va encore imposer ce qu'il sait faire de mieux: ses chipsets et surtout ses Graphique Merdique Avancée en Haut Désastre.... Les entreprises puissantes arrivent toujours à imposer leurs produits même quand ils sont mauvais. C'est une bien mauvaise nouvelle, surtout pour les utilisateurs mac qui ont de grande chance de récupérer les solutions graphiques Intel... Mais pourquoi ne se contente-t-il pas de faire ce qu'il savent faire? des processeurs par exemple?
avatar ironseb | 
[quote=Almux] Apple ne va rien sortir, tant que tous les prototypes auront prouvé la fiabilité totale des chaînes hybrides. C'est d'ailleurs ce qui différencie les assembleurs PCs d'Apple... Il faut aller au-delà de l'aspect trappe-à-l'oeil à la mode.[/quote] Ah bon ? Parce qu'ils ont attendu avant de sortir l'iMac 27 Core i7 ? Je crois surtout que l'aspect tape à l'oeil des Mac t'a complètement aveuglé.

CONNEXION UTILISATEUR