Les impressionnantes GeForce GTX 1000 arrivent sur portable (mais sans doute pas sur MacBook)

Stéphane Moussie |

Peu de temps après leur sortie sur ordinateur de bureau, les GeForce GTX 1080, 1070 et 1060 sont déclinées sur portable. Notez que Nvidia ne parle pas de GTX 1080M, mais bien de GTX 1080 (idem pour les deux autres cartes). En abandonnant le suffixe « M » traditionnellement dévolu aux déclinaisons pour portable, le fabricant veut souligner que ces GPU sont comparables à leur version de bureau.

Il y a effectivement peu de différence entre les deux. Ils comportent le même nombre d'unités de calcul et d'unités de texturing (la version mobile de la GTX 1070 en a même un peu plus que la version de bureau), la même architecture, la même mémoire...

Ce qui les différencie principalement est leur fréquence de base et leur fréquence turbo, qui sont logiquement un peu inférieures sur portable pour s'accommoder des contraintes d'énergie (sauf pour la GTX 1080 qui a une fréquence turbo équivalente). Au bout du compte, Nvidia assure que les performances sont équivalentes en moyenne à au moins 90 %.

Graphique AnandTech

Par rapport aux modèles précédents (GTX 960M...), les GeForce GTX 1000 promettent d'être significativement plus puissantes grâce notamment à une montée en fréquence importante et une multiplication des unités de calcul, des évolutions permises par une gravure plus fine (16 nm contre 28 nm). Là encore, Nvidia promet monts et merveilles puisque les performances seraient supérieures d'environ 70 %.

Plusieurs constructeurs vont proposer très prochainement des machines embarquant une de ces cartes graphiques : Acer, Alienware, Asus, HP, Lenovo... mais sans doute pas Apple, qui aurait choisi les nouveaux GPU Polaris d'AMD pour les prochains MacBook Pro.


avatar John McClane | 

Sniff

avatar youpla77 | 

On en a de la chance...

avatar Billytyper2 | 

@youpla77 :
Encore plus que l'on ne le croit…

avatar anti2703 | 

En même temps sur Desktop ces cartes ont entre 175 et 275W de TPD... Fallait pas rêver de voir ça arriver sur macbook pro ou sur les iMac...

avatar NestorK | 

@anti2703 :
Euh... Tu as vu qu'on parle ici de leur déclinaison mobile qui sont justement capable de rentrer dans un MacBook Pro ou un iMac.

avatar Ndrix68 | 

@NestorK :
Certes ce sont des cartes mobiles, mais certains sites parle d'une conso aux alentours de 80W pour la 1060...
Pas de miracle en conservant la puissance, ça chauffe...
Ce n'est donc
Pas des cartes mobiles mais "transportable"!

avatar Penible | 

Des constructeurs les intègrent dans des chassis équivalents aux MacBook pro donc si c'est mobile ... par contre ça chauffe et c'est bruyant ... c'est toujours la contrepartie pour les joueurs ...

avatar C1rc3@0rc | 

@Ndrix68
Dans les fait ce ne sont pas des GPU mobile, Nvidia ayant expliqué qu'il abandonnait la conception specifique de GPU mobile et GPU desktop car ses avancées sur le rapport performances par watt etant enormes, le meme GPU peut servir a un desktop et a un notebook.

Seul le pilotage du GPU va varier en fonction de la montée en temperature effective. Ce qui est plus logique, meme si cela entraine un phenomene de throttling comme sur les x86 pour les machine insuffisamment refroidies. L'avantage secondaire sera aussi d'eviter la degradation prematuree des soudures qui ont ete la cause de beaucoup de probleme dans les PC equipé de GPU.

Le gros avantage c'est que la programmation va etre aussi simplifiée (unification) et qu'en bonnes conditions de refroidissement on va avoir des petits monstres qui vont booster les performances graphiques mais aussi le calcul GPGPU.

La conséquence malgré tout sera que les machines le plus puissantes seront celles qui disposeront du systeme le plus efficace de refroidissement. On peut donc s'attendre a voir un arrêt dans la course a la finesse et de l'innovation dans les techno de refroidissement.

@Penible

Avec la tendance a augmenter la densité des écrans (la 8k pointe deja le bout de son nez) et la généralisation des écrans 120hz, il n'y a pas que les joueurs qui ont besoin de GPU qui tiennent la route…
Le bruit provoqué par le systeme de refroidissement est relatif et dépend de la techno et de sa maitrise. Le ventilo primitif qui ne connait que 2 positions - a fond ou a l'arrêt - démontre l'incompétence du constructeur...

De toute façon on a pas vraiment le choix: l'utilisateur n'en peut plus de la stagnation de la puissance de ses machines, le GPGPU offre de facteurs de puissance phenomenales, et les GPU x86 sont au point mort avec une efficacité energetique qui n'a pas evolué en 6 ans... Bref le discours d'Intel ne fait plus illusion et on a besoin de GPU.

avatar NORMAN49 | 

avec leur radiateur ?-)))

avatar Lonesome Boy | 

@NestorK :
Quel est le TDP de ces cartes? Sans ça, on ne peut pas savoir si ça pourrait "rentrer" dans un MBP

avatar anti2703 | 

@NestorK :
Bah non justement. On est d'accord qu'on parle bien de carte graphique mobile, mais si elles ont 90% la puissance de leurs grandes sœurs desktop le TDP sera à peu de chose pret équivalent. Le TDP sera bon pour rentrer dans un portable, mais pas dans un Mac.

Quand on parle d'ordinateur portable de gamer on parle plus de transportable (5Kg, et 6/7cm d'épaisseur). On est loin, très loin des standard d'Apple quand tu vois que les MacBook Pro Retina font 1 Cm d'épaisseur. Même si Nvidia a fait un effort sur la conso, ça n'ira pas avec les standard d'Apple.

avatar reborn | 

@anti2703 :
Même sur pc portable je ne cherche plus a avoir de GPU dédié. Dans la pratique c'est.. pas pratique. Ça chauffe, ça suce toute la batterie et il y a toujours des problèmes de GPU qui se dessoudent..

Si je veux jouer j'ai le PC monté.

avatar oomu | 

bon alors, un imac avec ça ? Apple daignerait en proposer dans sa gamme ?

avatar C1rc3@0rc | 

Probablement pas, Apple ayant pour une raison - surement politique - exclu les GPU Nvidia de ses machines. Apple s'accroche - betement - a AMD pour le GPU Mac, et a ses propres solutions maisons a plus long terme (ARM et GPU maison).
Cette politique a ete acté avec le Mac Pro, machine qui pour repondre au vrai besoin de la cible de marché devait embarquer du Nvidia au lieu d'AMD.

Et AMD est dans une sacrée panade:
- incapable de concurrencer Intel sur le x86
- incapable de suivre, meme de loin, Nvidia sur le GPU
- incapable de commercialiser des serveurs ARM malgré la demande

Si AMD avait été une société concurrentielle il y a longtemps, aujourd'hui il semble que la direction est incompétente et que l'ingénierie est resté dans le passé. Entre les x86 a unités graphiques qui ont assez progressé pour steriliser le marché du GPU bas de gamme, qui était la dernière perfusion d'AMD, et Nvidia qui domine totalement le marché du GPU de moyenne et haute performance, il ne reste plus a AMD que les APU qui équipent les consoles de jeu comme pres vert, sauf que ce pré est tout petit et rétréci a vu d'oeil, et l'arrivée des Pascal de Nvidia risque bien de signer la mort des consoles...

Bref si AMD survit encore 2 ans ce sera un miracle.

La mauvaise nouvelle c'est qu'en l'etat, la mort d'AMD risque de signer la mort définitive du Mac sur le marché pro. De toutes façon avec la baisse dramatique des ventes de Mac et des machines dissuasives comme le Macbook et le sabordage des MacMini, Macbook Air et Macbook Pro, Apple semble ne plus vouloir du Mac.
Reste plus qu'a avoir un message clair, comme pour l'ecran Thunderbolt, au moins qu'on sache a quoi s'en tenir.

avatar anti2703 | 

@reborn :
Ah mais moi aussi ! Après avoir essayer le Mac Pro d'occasion avec une GTX dedans ça ne marchait toujours pas... Du coup je me suis monté un PC de gamer... D'ailleurs j'ai ma deuxième GTX980Ti qui arrive demain ! :D

avatar Orus | 

"mais sans doute pas Apple, qui aurait choisi les nouveaux GPU Polaris d'AMD"
Apple préfère nous vendre cher du matériel peu performant.
Bientôt Apple ne vendra ses Mac qu'aux séniors; une marque pour les vieux. Pathétique.

avatar patrick86 | 

"Bientôt Apple ne vendra ses Mac qu'aux séniors; une marque pour les vieux. Pathétique."

C'est pathétique de s'intéresser aux vieux ?

Toujours aussi "pertinentes" vos analyses.

avatar zoubi2 | 

@Orus

Vous savez ce qu'ils vous disent, "les vieux" ?

avatar oomu | 

"Palsambleu" ?

avatar Pas-un-philosophe | 

De toute façon, vu les jeux disponibles sur mac, même un gpu intégré est suffisant, car quand on veut vraiment jouer, on a un pc où rien n'est soudé (un peu comme les vieux Mac Pro). On a presque de la chance qu'ils ne soient pas disponibles, imaginez un peu les prix des MacBook avec ces cartes graphiques que le constructeur vend 700€

avatar C1rc3@0rc | 

@Pas-un-philosophe

Ben de toute façon le Macbook arrive qu'a intégrer un processeur conçu pour les smartphones, meme pas un vrai CPU de PC mobile, alors on parle meme pas de GPU pour cette incongruité.

Quant aux PC qui vont integrer les GPU de Nvidia, ben ils vont rester aux memes tarifs adaptés a leurs secteurs de marché. Il n'y a qu'Apple qui ne sache pas plus des machines puissantes a prix raisonables. D'ailleurs il semble qu'Apple ne sache plus faire autre chose que des iPhones, et paradoxalement les iPhone sont surpuissants...

Apres il faut aussi se poser la question du pourquoi acheter un Mac aujourd'hui alors qu'Apple le saborde et le delaisse, qu'Apple tente de le remplacer par iCloud?
La seule raison qui fait tenir au Mac aujourd'hui c'est la logitheque dont on dispose, mais vu l'abandon des developpeurs pour la plateforme, il est urgent de migrer sur du multiplateforme...

avatar ErGo_404 | 

En plus de ça, je trouve que ça serait cool que les différents constructeurs (Apple compris) se bougent un peu pour proposer plus régulièrement des cartes graphiques externes connectées en Thunderbolt, mais surtout des portables compatibles.

Cela permettrait de réunir le meilleur des deux mondes, des ultraportables qui consomment et chauffent peu et un peu de puissance graphique pour le jeu ou le traitement photo/vidéo sur sa station de travail.

avatar reborn | 

@ErGo_404 :
1 pour des solutions de carte graphiques externe

avatar C1rc3@0rc | 

C'est une chimere!

Avec le Mac Pro Apple faisait la promotion du concept de composants externes connectés par Thunderbolt. Les utilisateurs du secteur visé sont soit restés sur le MacPro d'avant 2013, soit sont passé sur des stations de travail embarquant un maximum de composants (a commencer par les disques).

Le GPU externe ne marche que pour le GPGPU, et la on parle de serveur de calcul. Pour le reste c'est un concept fumeux qui déçoit ses plus fervents adeptes, sans parler de la surconsommation que cela entraine et du surcout.

La prochaine lubie c'est l'ecran a GPU, encore une fumisterie de premiere qui va a l'encontre de la tendance selectionnée par les utilisateurs: des ecrans simples et de bonne qualité.

Maintenant que le LCD IPS a atteint des couts raisonnables pour une qualité extreme l'utilisateur ne veut pas autre chose, et il devient de plus en plus exigeant sur la qualité.
La prochaine etape c'est probablement l'OLED, mais y a encore du boulot au niveau technique et durée de vie.
L'idée d'un GPU externe est une imbécilité qui ne fait fantasmer que les marketeux.

avatar vrts | 

@C1rc3@0rc : je suis pas du tout un marketeux et pourtant je serais super content d'avoir un GPU externe chez moi + à mon studio sur lequel je branche mon MBP.

Cela me permettrait de donner 5 ans de plus à mon macbook pro de 2012, il a un bon i7, du SSD, de la RAM mais une carte graphique vraiment dépassée pour mes besoins.
Cela me permettrait également de me rajouter un 2e écran externe à mon studio.

Je connais beaucoup de gens autours de moi que ça intéresserait pour les mêmes raisons et d'autres pour du gaming.

avatar PierreBondurant | 

@ErGo_404 :
Ce serait en effet le meilleur des 2 mondes!

Sur station de travail, on peut aussi améliorer le contrôle de la température avec un stand au cas où ça chauffe.
Et en mobilité ça évite d'avoir la carte graphique qui s'emballe pcq on regarde un film (la gestion des 2 cartes par OS X étant par le passé assez laborieuse)

avatar Matgamer | 

@ErGo_404 :
Pour jouer faut quand même un processeur qui tiens la route pas un truc qui divise ça cadence par 2 dès qu'il est sollicité de 5min

avatar reborn | 

Et après ça va raller car le macbook passe de 10h à 3h d'autonomie..

avatar Simeon | 

Sans parler de la température du chassis.

avatar vrts | 

hahahaha, les excuses les plus cons pour justifier des CG dépassées / peu performantes à prix d'or.

autonomie : ça fait longtemps que les macbook pro ont 2 cartes graphiques pour justement garder l'autonomie en utilisation courante.

temperature du chassis : bah oui c'est connu, le mac rentre en fusion et il faut le jeter

avatar Penible | 

L'entrée de gamme permet déjà de jouer à beaucoup de jeux dans de bonnes conditions ... mais c'est sur qu'un bandeau OLED c'est tellement mieux ...

avatar Yohmi | 

Si seulement on pouvait avoir le choix. Si seulement un cadre chez Apple aimait les jeux vidéo…

avatar Penible | 

Surtout que c'est un marché en pleine expansion ... contrairement aux tablettes et aux watchs ;p

avatar Dark-mac | 

Les cadres de chez Apple aiment les jeux, mais les jeux mobiles pas ceux sur Mac…

avatar mac_adam | 

@Yohmi :
Bof, les jeux vidéo ça nique les yeux et les oreilles (et au passage ça emmerde les voisins). Et ça te fait une facture d'électricité bien salée (on peut ajouter le coût de la climatisation à cette époque de l'année, si on ne veut pas perdre deux litres d'eau par heure de gaming).

avatar hmmmr | 

@ErGo_404 :
Le traitement photo/video demande peu de puissance gpu, sauf quelques effets du type opticalflow / convolution (dof,...). Photoshop, nuke, after tournent tres bien sur Iris, le proc sera a genoux en mode turbine plein gaz bien avant..

Il n'y a bien que les joueurs (et pour l'UI des softs 3d) qui veulent ce genre de CG sur un portable, les 9x,xx% autres (les Seniors d'@Orus ?) s'en passent très bien, même sur des stations de travail fixes.

TBGPU c'est un marché de niche (du fond du jardin), que peu d'industriels se lancent semble logique du coup, ca serait plus un bon projet kickstarter, mais il ne faut pas qu'apple bride le truc a la racine (et l'inverse aurait ete etonnant !)

avatar cv21 | 

@hmmmr : "Le traitement photo/video demande peu de puissance gpu" "Il n'y a bien que les joueurs (et pour l'UI des softs 3d) qui veulent ce genre de CG"...

Je serais BEAUCOUP plus nuancé malgré mon manque de certitudes techniques. Sur un vieil imac (quasi équivalent à un portable) avec une CG à 512Mo, sur Motion pas possible d'enchainer 2 générateurs Yanobox Nodes, sur la machine du boulot 2Go de CG ben ça va tranquille et même au delà. Sur FCPX, un titre avec des effets de colorimétrie, sur mon poste perso ça rame un peu, sur celui du boulot ça ralentit un peu. Donc, empiriquement, vu qu'ill n'y pas une déifférence de cpu et de disque énorme, il me SEMBLE que la CG joue un rôle important pour la fluidité et les possibilités d'édition.

Quand je lis, les mises à jour de resolve, il est écrit : "entirely rewritten ResolveFX plug-ins with faster GPU acceleration". Ok, il est bien question des effets, en vidéo c'est tout de même courant et il me semble que la CG prend de plus en plus d'importance.

Quand je lis le contenu du lien ci-dessous sur les effets de grosses cartes vidéos nvidia avec premiere, ok il font leurs promos mais j'y crois tout de même un peu aux calculs reportés sur les cartes graphiques qui facilitent le montage.
http://www.nvidia.fr/object/adobe-premiere-pro-cc-fr.html

En clair, à mon avis, la CG ce n'est pas que pour les joueurs, c'est quand même bien sympa quand on ajoute un flou, un filtre de couleur dans un montage vidéo d'avoir une machine qui réponde encore sans lancer de rendus pour que cela devienne fluide.

avatar hmmmr | 

@cv21 :
Oui la CG joue sur la gestion de l'affichage, les softs modernes en profitent aussi mais c'est pas mal du bluff.
C'est impressionnant sur une piste video de faire before/after, mais dans la réalité, vous serez ralenti par la ram pleine, par le cpu mal refroidi, par les ralentissements liés aux accès aux fichiers, avant d'avoir abbsssoollummmennt besoin d'une cg comme celle ci pour les 10 effets optim gpu.

avatar moon21 | 

Vous avez trop raison de parler de trucs qui n'existent pas sur mac....

avatar Penible | 

Attendons de voir ce qu'ils vont faire avec Polaris ... si ils arrivent à l'intégrer ailleurs que dans un IMac bien sur ...

avatar Archos | 

Marre de redémarrer sous bootcamp pour jouer je viens de me monter un PC avec une Asus Strix GTX 1080. C'est vraiment une super carte. Aussi bien au niveau de la consommation que de la temperature / son des ventilos.

Ca change tout DayZ en ultra sans ralentissements :D

avatar Hazo | 

On a failli avoir un MacBook Pro avec une carte graphique puissante?
On l'a échappé belle en passant sous AMD!

avatar Manubzh | 

sérieusement, il y a qui achète uniquement un portable pour jouer en config ultra 4K avec 240 fps etc ?
c'est là où apple fait fort, ils arrivent à faire des portables bien conçus avec des config moyennes mais ultra-optimisés

sauf le prix qui lui est optimisé pour leur iPortefeuille ...

avatar yoyo3d | 

Je comprends pas ce choix d AMD alors que leurs cartes traditionnellement consomment donc chauffent le tout avec des performances moindres comparées à Nvidia.
Cet entêtement d Apple est vraiment agaçant.

avatar vrts | 

c'est juste une question de pognon, + de marge pour Apple. Le reste c'est du vent de geeks pour eux.

avatar Milouze | 

Nivdia est pénible niveau drivers et license (sous Linux par ex.), AMD est plus accommodant avec l'open-source, ce qui rend une optimisation possiblement plus poussée avec le noyau Darwin et moins de soucis contractuels ou techniques.

avatar vrts | 

que ce soit AMD ou NVIDIA, les pilotes graphiques sont mauvais sur Mac de toute façon...

avatar harisson | 

Bon plus qu'à espérer que les boitiers de cg externes TB3 se "démocratisent" un peu plus l'année prochaine… TC, si tu nous lis ^_^

avatar cv21 | 

C'est aussi ce que j'espère...dès que les "autres" utilisateurs auront essayé :))

avatar melaure | 

Le rôle d'Apple c'est de liquider les vieux stocks des GPU que les constructeurs de PC ne veulent plus et de les vendre encore plus cher que leur prix d'origine des années avant ...

Une fois qu'on a compris ça, la configuration et le prix des Macs est logique ;)

Pages

CONNEXION UTILISATEUR