Haswell : la puce graphique intégrée la plus puissante ferait jeu égal avec une carte dédiée

Stéphane Moussie |
Les contours de Haswell, la quatrième génération des processeurs Core i d'Intel, se dessinent peu à peu. AnandTech a pu observer les performances de la partie graphique intégrée des futurs processeurs qui sont attendus pour le milieu de l'année.



Un ordinateur Asus équipé d'une carte graphique NVIDIA GeForce GT 650M — celle que l'on retrouve dans l'iMac 21" haut de gamme — était confronté à une machine dotée d'un processeur Haswell GT3. La partie graphique GT3 constitue le haut du panier d'Intel et ses performances seraient deux fois supérieures à celle de l'Intel HD 4000.

C'est le jeu Dirt 3 qui a servi de benchmarks avec une définition Full HD et les paramètres graphiques poussés sur High (sans anti-aliasing ni v-sync). Bien qu'il n'ait pas pu consulter le nombre d'images par seconde affichées, pour AnandTech les performances sont très similaires. Un essai organisé par Intel à prendre avec précaution toutefois, le site n'a pas pu vérifier par lui-même que la puce Haswell utilisée était le modèle qui allait remplacer directement le processeur Ivy Bridge qui lui était opposé.



Toujours est-il que la partie graphique intégrée haut de gamme de la plateforme Haswell marquerait un bon en avant significatif si elle fait bien jeu égal avec une carte graphique dédiée. Reste maintenant à voir dans quelles proportions elle sera adoptée par les fabricants, dont Apple, qui ont des critères techniques (chaleur, place...) et financiers. Il faudra également observer le comportement de la puce GT2, correspondant à l'Intel HD 4600 que l'on a déjà pu croiser dans les tableaux qui ont fuité.
avatar Loki0841 | 
Ca m'intéresse beaucoup cet Haswell, une consommation ridicule pour des performances vraiment bonnes. Mais ça reste sur le papier, j'attends de tester le MacBook air cuvée 2013 pour savoir si Intel sait encore faire quelque chose de bien !
avatar Silverscreen | 
Pourvu qu'Apple garde la carte dédiée sur les machines autres que le MBA et le Mac mini. L'iMac pâtit déjà d'un manque d'upgradabilité, comme le MBP, il faudrait pas que les deux pâtissent en plus d'une solution graphique intégrée, à moins de vouloir finir de flinguer le jeu sur Mac… Mais c'est tout de même encourageant. Si Intel continue de progresser à cette vitesse, on peut espérer dans quelques années avoir une architecture graphique à peu près standardisée entre les Macs et les PCs avec ce que ça peut comporter comme bénéfices pour le jeu sur Mac…
avatar fousfous | 
Et c'est quoi la consommation de la puce? Si c'est autant qu'une carte dédié je ne vois pas l'intérêt.
avatar HoulaHup | 
Ce qui va surtout être important, c'est le driver qu'on aura sur Mac...
avatar joneskind | 
@Silverscreen : Je ne pense pas qu'Apple envisage de supprimer la carte dédiée sur l'iMac, ou peut-être sur le 21". De toute façon, si les caractéristiques techniques sont au rendez-vous, je ne vois pas de raison de me plaindre. Il arrivera un moment où comme la carte son en son temps, la carte vidéo dédiée ne concernera plus que certains professionnels ou joueurs exigeants. D'autant qu'on voit bien sur les tablettes et smartphones qu'il est possible de faire du vraiment bon avec peu.
avatar joneskind | 
@fousfous : T'imagines bien qu'Intel va pas se faire chier à faire la promo d'un nouveau chipset graphique intégré si c'est pour avoir les mêmes défauts qu'une carte dédiée. D'autant plus qu'il semble clair aujourd'hui que l'autonomie des machines est l'argument de vente principal des constructeurs. Je suis content de la tournure que tout ça est entrain de prendre.
avatar Myaboki | 
C'est bien mais Haswell sort en juin, d'ici là nVidia aura aussi sait des progrès! Et quid de la conso, et utilisation de la mémoire partagée??
avatar poulpe63 | 
Inversement, avoir une carte graphique pas plus puissante qu'une HD4600 (GT3, soit-dis en passant) sur une machine haut de gamme, c'est pas top. (comparé à la 675 ou 680Mx, après on verra). Par contre, sur un MBA 11", ça peut être sympa, pour du "casual" gaming (Worms, et autre humble bundle games)
avatar joneskind | 
@HoulaHup : De ce côté là je ne me fais aucune inquiétude. Intel donne tout ce qu'il faut pour ça, et Apple optimise son Software dans tous les sens depuis des années pour chipset Intel. Et c'est super bon pour Linux qui va en profiter en même temps que Steam ! Donc gros GG pour Intel sur ce coup là !
avatar joneskind | 
@poulpe63 : 'Par contre, sur un MBA 11", ça peut être sympa, pour du "casual" gaming (Worms, et autre humble bundle games)' C'te blague. Je crois pas qu'on puisse considérer StarCraft 2 ou Wow comme des jeux "casual" et pourtant ils tournent déjà très bien sur un MBA 13". Worms... Et pourquoi pas Tetris tant qu't'y es !
avatar terodrel | 
Vu comment les drivers sont mal optimisé sur mac, je suis pas très confiant ...
avatar Argeuh | 
Eh bien, on va être très déçus quand on aura les vrais perfs...
avatar iCaramba | 
Ça sera bienvenu sur le prochain MBPR 13" et les prochains MBA retina ;))
avatar iCaramba | 
@joneskind : 'Worms... Et pourquoi pas Tetris tant qu't'y es !' Non il n'est pas assez puissant lol ^^ PS: j'attend de voir ce que répondra DBZ et son fameux "MacBook m'air'de"…
avatar David16 | 
Mouais alors déjà ils ont mentis ( Intel ) sur le 7 W ... Pis dans un an les jeux ou autres demanderont plus qu une 650M en Charge ! Donc bon si ça sortais maintenant je veux bien . Mais ça va tellement vite dans le hardware que ....
avatar ThePapyGeek | 
Mdr ce jeu date de mathusalem. Tu parles d un test sérieux.
avatar joneskind | 
@thepapygeek : On s'en fout du jeu utilisé, c'est les benchs qui comptent. Le jeu n'est qu'un prétexte à la démonstration.
avatar joneskind | 
@david16 : 'Donc bon si ça sortais maintenant je veux bien . Mais ça va tellement vite dans le hardware que ....' La Geforce 650M n'est pas si vieille ou dépassée. Même si elle est encore insuffisante pour tout faire tourner à fond. Ce qui est très intéressant c'est qu'Intel a pris le taureau par les cornes pour nous sortir des GPU économes et puissants. Ça veut aussi dire que Nvidia va devoir se sortir les doigts pour proposer des CG qui justifient leur achat par rapport à des Chipset Intégrés bien suffisants pour l'usage principal qui en est fait. Donc on va y gagner sur tous les fronts.
avatar lmouillart | 
@joneskind Un vieux jeu va utiliser forcement un ancien profil DirectX/OpenGL, donc on s'en fou absolument pas.
avatar joneskind | 
@terodrel : Les drivers Nvidia oui. Parce que Nvidia refuse de donner la documentation à Apple, tout comme Apple refuse de donner la main sur son OS. Mais les drivers Intel sont toujours très bien optimisés car Intel communique sans problème. C'est aussi là qu'est la bonne nouvelle.
avatar joneskind | 
@lmouillart : Pour le jeu OK, mais comme je l'ai dit, ce n'est qu'une démo. La vraie comparaison se fait sur des Benchs. Il est évident que c'est pas difficile de faire tourner Quake 3 à 150 FPS.
avatar mbpmbpmbp | 
@joneskind : Ce serait interessant justement de voir un jeu récent Directx11...
avatar joneskind | 
@mbpmbpmbp : Ça pourrait... Enfin, pour la culture générale alors, parce que ça doit faire 5 ans que j'ai pas fait tourner un Windows ^_^ Mais je suis quand même plus intéressé par les performances sur un Mac. D'une part parce que les drivers Nvidia sont à chier, d'autre part parce que les drivers Intel sont très bon. Ce qui doit vouloir dire qu'on verra encore plus la différence sur Mac. Note que DirectX 11 date déjà de 2009, et que donc Dirt3 en tire parti. Mais je ne sais pas ce que la DX11.1 a apporté de significatif.
avatar poulpe63 | 
@ joneskind : SC2 qui tourne très bien sur une HD4000 (une HD3100 à peine boostée)... et la marmotte elle met le papier alu ? ;p Sur un MBA 2010, SC2 s'en sort pas trop mal (détail moyen, 40 fps), et encore faut pas qu'il y ait trop de monde (et au sujet de Worms, je parlais de la version MAS, donc plutôt gourmande)
avatar Maëlectrique | 
Haswell fait jeu égal? J'aime ce titre plus subtil qu'il n'y paraît.
avatar flafarge | 
Ce commentaire à propos de la news sur les soldes la Redoute, qui ne permet pas de laisser de commentaire étrangement. Heuuu MacGé sérieusement :vous êtes actionnaire où La Redoute a payé ?!
avatar pmloikju (non vérifié) | 
@terodrel : 'Vu comment les drivers sont mal optimisé sur mac, je suis pas très confiant ...' +1 Tout est questions d'optimisation, la puissance hardware n'est plus le vrai problème. On voit déjà la différence iPhone 5 double core qui a les même perd qui S GSIII quad core. Quand des petit génies s'y attaqueront sur Pc et Mac pour tout les softs, on rigolera devant les concours de qui a la + grosse.
avatar Lemmings | 
On est encore loin d'une véritable carte graphique dédiée, je ne parle évidement pas d'un modèle "M" dédié aux portables...
avatar oomu | 
"Par contre, sur un MBA 11", ça peut être sympa, pour du "casual" gaming (Worms, et autre humble bundle games)" faut arrêter avec cette lubie des "casual games", et worms n'est PAS un jeu d'occasionnel en 5mn dans le métro. Il s'agit ici d'une puce capable de supporter des jeux 3D sophistiqués (et non ça sera pas le dernier bioshock du jour, houlalaaaa) - "On est encore loin d'une véritable carte graphique dédiée, je ne parle évidement pas d'un modèle "M" dédié aux portables..." Evidemment que vous êtes loin d'une carte graphique qui prend une longueur entière d'ordi, avec sa ram dédiée, son double ventilo et sa consommation de boeing ! Ca n'a tout simplement PAS les même contraintes. Mais oui, on est près des modèles "M". - @Flafarge [10/01/2013 22:10] via iGeneration pour iPad "Ce commentaire à propos de la news sur les soldes la Redoute, qui ne permet pas de laisser de commentaire étrangement. Heuuu MacGé sérieusement :vous êtes actionnaire où La Redoute a payé ?!" ben vi La Redoute (ou plutôt la régie pub) a payé. C'est l'une des sources de revenu de MacG
avatar joneskind | 
@poulpe63 "Sur un MBA 2010, SC2 s'en sort pas trop mal (détail moyen, 40 fps)" C'est bien ce que je disais. Le HD4000 équipe les MBA de 2012 et s'en sort quand même bien mieux. Et 40 FPS c'est carrément correct pour jouer. Surtout sur un petit écran. Ok le Cinema en 24 IPS ça saccade un peu sur un écran de 12m de diagonale et que t'es un peu trop près. Mais 40 IPS sur du 13" ? sachant que l'écran lui-même est en 60Hz et que donc le FPS visible ne dépassera jamais 60. Donc je confirme que cette nouvelle puce graphique devrait être agréable à utiliser sur un MBA, et c'est tout ce qu'on lui demande.
avatar en ballade | 
et il faut espérer une meilleure optimisation des pilotes....au moins aussi bon que sous windows...mais ca faut pas rêver
avatar Stardustxxx | 
@ joneskind Je ne vois pas comment tu peux comparer les pilotes comme ca, tu es en expert dans le domaine ? Les puces graphiques ont différentes compléxité, il y a de nombreux modele, difficile de comparer une carte graphique intégrée qui supporte a peine OpenGL 3.0 avec une carte dédiée qui supporte OpenGL 4.2.. Il est admis dans le milieu professionel que les pilotes les plus solides et les mieux optimisé sont ceux écrit par nVidia, sutout pour l'OpenGL.
avatar jellyboy74 | 
Je suis désolé mais je vais casser toute cette joie non contenue . Haswell ok , maintenant il serait bien de voir à moyen terme . Intel fanfarone sur un jeu avec un moteur graphique qui date de 2006 et avec ces paramètres on peu grosso modo dire qu'on est entre 30 et 35 FPS . La nouvelle génération de jeu va commencer à débarquer cette année , qu'en sera t'il sur ces jeux ?? Qu'en est il même sur des jeux plus gourmands comme crysis 2 , The witcher 2 etc etc ??
avatar joneskind | 
@Stardustxxx : '@ joneskind Je ne vois pas comment tu peux comparer les pilotes comme ca, tu es en expert dans le domaine ?' Je parlais du Mac spécifiquement. Et pour le milieu professionnel sur Mac, Nvidia développe sa solution maison CUDA dont l'OS ne tire pas parti. Le problème vient du fait que Nvidia refuse de communiquer à Apple les détails techniques qui lui permettraient d'optimiser ses drivers (Apple refuse de laisser la main sur son OS) Par contre ce n'est absolument pas le cas d'Intel, c'est d'ailleurs aussi pour ça que les drivers Intel sont toujours les mieux optimisés sur Linux.
avatar joneskind | 
@jellyboy74 : 'et avec ces paramètres on peu grosso modo dire qu'on est entre 30 et 35 FPS . ' Tu as testé sur la Geforce ou tu sors ces chiffres de ton chapeau ? Sources ?
avatar Stardustxxx | 
@ joneskind Tu sais ce que c'est CUDA ? J'ai pas l'impression. Ce n'est pas un pilote graphique. C'est un driver pour faire du GPGPU. C'est un concurrent d'OpenCL. Tu n'as pas besoin de l'installer pour avoir de la 3D dans OS X. Apple fournit les pilotes graphiques sur Mac OS X, tu crois qu'il ne collaborent pas avec nVidia, AMD et Intel pour les écrires ou les intégrer. Tu crois que le service qualité pourrait tolerer des pilotes écrit par nVidia sans que Apple ait un mot a dire... J'ai du mal a le croire. Mais je ne suis pas l'intimité de Apple et de nVidia. Mais si tu me donnes des liens appuyant tes dires je n'attend que ca. Le cas linux est vraiment a part. Mais avec Apple, nVidia peut tres bien signé un NDA sur le code des drivers.
avatar Mark Twang | 
Drôle d'idée de communiquer sur le jeu vidéo. La nouvelle me paraît bonne en terme de confort d'usage pour les futurs MacBook Air.
avatar jellyboy74 | 
Joneskind : Bah ayant été équipé avec une ATI 5650 o/c largement meilleure et une 560M GTX sur ROG g53sx à des milliers de kilomètres qui avec les même paramètres (AA et VS en plus sinon ca sert à rien ) ne dépassait chacunes pas mieux que 40 et 50 fps , je suppose qu'une puce aussi faible que la simple GT650M ne fait pas mieux que 30 à 35 . Après si tu vas chercher des test de bench tu trouveras des chiffres bien meilleurs mais entre test et réalité ...... Et bon je prend pour exemple des versions dx11 , rien ne dis qu'Intel n'est pas floué sa démo en faisant tourné un dx 9 d'un côté et un dx 11 de l'autre ! Ce que j'en dis c'est que cette puce aussi performante soit elle est déjà à la rue complet , qu'on me montre ce que ca donne sous crysis 2 et on en reparlent !
avatar Damze | 
Ne pas oublier que le jeu possède un moteur très optimisé pour cette architecture...Marketing Marketing !
avatar dtb06 | 
"une carte dédiée"... Mouais enfin une carte de protable milieu de gamme en 2012...
avatar Rom33 | 
Parfait pour un MBA Retina tout ça !
avatar joneskind | 
@jellyboy74 : En même temps ça reste des capacités de CG mobile, donc jamais équivalentes aux CG fixes, sur un chipset intégré. C'est du jamais vu. Après c'est pas du AlienWare on est d'accord. Mais c'est pas le même encombrement, ni la même autonomie. Donc quoi qu'il en soit, on progresse. Mais il y aura toujours des gens pour comparer l'incomparable, les CG mobiles aux CG desktop. Pour fustiger les "CG anémiques" des MBP "pour des ordis à ce prix là" et blabla... Vivement les CG Thunderbolt tiens ! Pour ce qui est d'une conspiration directX 9 d'Intel, j'ai beaucoup de mal à y croire, vu la simplicité avec laquelle on peut reconduire ce test.
avatar Stardustxxx | 
Ne pas oublier le fiasco Larabee chez Intel...
avatar jellyboy74 | 
@joneskind Ou est ce que je compare une offre M au dekstop ?? Je parle d'une ATI 5650 de 2010 sur un Dell Inspiron et d'une GTX 560M d'un ROG de 2010 aussi . Intel nous présente sa nouvelle puce comme une avancée alors qu'elle arrives 2 ans trop tard . J'ai pas dis que c'était de la merde , j'ai dit que c'était déjà dépassé et vu l'offre grandissante de jeu sur osx , on es en droit d'attendre mieux que la simple implémentation honteuse bien qu'économe de HD3000 (plus faible que la 320M !! , HD 4000 , ou la haswell ) à l'heure ou la transition technologique s'effectue pour les jeux vidéo et je dénonce simplement le tour de passe passe d'Intel en utilisant un jeu au moteur très vieux . A ce compte là mieux vaux une solution A10 ! Mais si Intel compte imposer ses CGPU il va falloir qu'ils progresse et accepte d'augmenter les consomation si les utilisateurs de mac entrée et mid gamme ne veulent pas passer leur vie à jouer avec 2 ans de retard ! et juste histoire d'étayer mes propos voici les bench des puces 450/550/650 M ( TOUTES BASéS SUR LE GT430 pour rappel mais Nvidia qime jouer avec les chiffres !) http://www.notebookcheck.net/NVIDIA-GeForce-GT-550M.42264.0.html Donc ca veux dire qu'Haswell fait au mieux aussi bien et on vois qu'en ultra la chute est terrible . Sur un moteur de cet âge on as donc affaire à de la poudre aux yeux !
avatar joneskind | 
@Stardustxxx "Tu sais ce que c'est CUDA ? J'ai pas l'impression. Ce n'est pas un pilote graphique. C'est un driver pour faire du GPGPU. C'est un concurrent d'OpenCL. Tu n'as pas besoin de l'installer pour avoir de la 3D dans OS X." Il me semble pourtant que cette phrase: "Je parlais du Mac spécifiquement. Et pour le milieu professionnel sur Mac, Nvidia développe sa solution maison CUDA dont l'OS ne tire pas parti" Dis peu ou proue la même chose que toi. À savoir que Nvidia n'a pas besoin de développer des drivers pour faire fonctionner CUDA avec ses CG. Ce qui veut dire que Nvidia n'a pas besoin de développer des drivers OSX pour que ses solutions logicielles professionnelles tirent parti de son matériel. Donc oui, Nvidia et sa solution CUDA sont très utilisés sur Mac par les professionnels et dans de bonnes conditions, mais ni les jeux ni l'OS ne tirent pas parti de CUDA puisque c'est exclusivement fait pour le calcul professionnel (un peu comme le coprocesseur arithmétique en son temps)
avatar joneskind | 
@jellyboy74 [11/01/2013 12:57] Merci pour ton lien. En cherchant un peu, je suis tombé sur les Benchs de la 640M qui d'après ce site http://www.gaminglaptopsjunky.com/gtx-560m-vs-gt-650m-vs-gt-640m-vs-gt-555m/ est moins puissante encore que la 650M On y voit les benchs suivant donc de la 640M, en High Black Ops 2: 41 FPS Crysis 2: 47 FPS Dirt 3: 64 FPS Diablo 3: 65 FPS Donc en admettant qu'on gagne 10% de FPS sur la 650M, ça me semble plutôt bon pour une CGM C'est plus faible en Ultra pour la 640M mais on peut espérer du mieux sur la 650M et donc sur le Haswell Crysis 2: 15 FPS Dirt 3: 20 FPS Black Ops 2: 25 FPS Diablo 3: 43 FPS Et ce ne sont que des valeurs moyennes pour des configurations PC très différentes, et qui peuvent monter beaucoup plus haut pour certaines configurations. Quand on sait que le MB est toujours le meilleur PC à configurations égales, je ne m'inquiète pas pour les performances.
avatar jellyboy74 | 
Oui certes un Mac est toujours meilleur à config égale sauf pour les jeux !! Il est pas rare de voir des gros écartes de perfs sur un même jeu entre windoxs et osx et malheureusement c'est souvent moins bob sur OSX . Cependant Haswell garde comme avantage sa faible consommation et pourrais vraiment faire la différence dans un mba mais sur mbp je préférerai une solution ATX ati ou nvidia . Et pour être honnête j'ai pas franchement envie de voir Intel continuer de s'accaparer le marche du mobile .
avatar joneskind | 
@jellyboy74 : 'Oui certes un Mac est toujours meilleur à config égale sauf pour les jeux !! Il est pas rare de voir des gros écartes de perfs sur un même jeu entre windoxs et osx et malheureusement c'est souvent moins bob sur OSX . ' En fait, je parlais d'un Mac sous Windows ^_^ C'est toujours moins bon sur OSX, d'une part à cause des drivers, d'autre part à cause des portages. Et puis il faut avouer que DirectX est très bon. Je peux partager tes inquiétudes concernant le MBP et le MBPr mais je ne crois pas qu'Apple se sépare des CG dédiées, ou pas à court terme. J'espère que Nvidia va se décider à communiquer sur son matos parce qu'avec les MBA, les MBP 13" les MBPr 13", les iMacs 21", les Mac Mini ! Ça commence à faire un sacré manque à gagner pour Nvidia. Reste plus que les MBP 15" et ce qui reste du Mac Pro...
avatar Stardustxxx | 
@ joneskind J'ai du mal a te suivre : "À savoir que Nvidia n'a pas besoin de développer des drivers pour faire fonctionner CUDA avec ses CG", ca veut pas dire grand chose... nVidia fait quoi en developpant un driver CUDA... Tu joues sur la semantique la... nVidia developpe ses drivers videos et CUDA.
avatar jellyboy74 | 
Non pis même sans rentrer dans le jeu openGL vs Direct X ou des drivers ( ce qui nâ pas lieu d'être sous osx ) , comme tu le dis la Puce Intel est là partout pour un prix plus chers . Quand je vois qu'une HD3000 fait pas beaucoup mieux que la 9400M de mon vieux Macbook blanc de 2009 il y a de quoi se poser des questions parce que l'éxcuse du contrôleur HD tiens pas vu que mon MB tiens largement le lecteur de Bluray externe ou les vidéo YT en 1080P !! Et puis Apple fait bosser tous le monde , ok c'est cool , mais entre une ati 5770 sur le macpro , la nvidia 650M (plus performante !) sur iMac et intel CACA sur les entrés de gamme portable on sait plus trop ou est la cohérence !

Pages

CONNEXION UTILISATEUR