Dell XPS 13, le concurrent du MacBook Pro 13" passe en "Kaby Lake Refresh"

Florian Innocente |

Les MacBook Pro 13" avec processeurs "Kaby Lake" (7e génération) lancés en juin sentent encore l'odeur du neuf que la concurrence prépare la rentrée avec des modèles équipés en Kaby Lake de 8e génération. C'est le cas de Dell avec son XPS 13.

Dell XPS 13

Il embarque un processeur appartenant à la famille dite "Kaby Lake Refresh", plus puissante grâce à quatre cœurs physiques au lieu de deux (l'Hyperthreading est toujours au menu, pour aller jusqu'à 8 cœurs logiques avec des applications de modélisation 3D par exemple) et une puce graphique plus récente. Intel avance un gain en rapidité de 25 % lorsque les 4 cœurs fonctionnent et jusqu'à 40 % dans le meilleur des cas.

Chez Apple, ces Kaby Lake aux épaules plus carrées ont vocation à équiper les MacBook 13" dépourvus de la Touch Bar. Une configuration qui utilise aujourd'hui les références 7360U et 7660U.

Le 13" avec Touch Bar et les 15" emploient pour leur part des Kaby Lake pour lesquels Intel n'a pas encore annoncé la version boostée (lire Intel lance Kaby Lake refresh, une partie de sa 8e génération de processeurs).

crédit : AnandTech

Dell en fait profiter plusieurs de ses portables dont cet XPS 13" (Core i7 Quad, USB 3, Thunderbolt 3, lecteur SD), pour lequel le texan revendique un gain de 44 % en vitesse avec les 4 cœurs sollicités. Dans son argumentaire auprès des médias il l'oppose à tous les portables actuels d'Apple sauf les 15"

L'autonomie du XPS 13 est annoncée à 22h 21min avec des applications bureautique, 13h 21min avec le navigateur Edge ou encore 13h 31min avec Netflix. Des valeurs très flatteuses mais qu'il faut tempérer. Elles ne s'appliquent qu'à la configuration avec écran Full HD et Core i3 de la (désormais précédente) 7e génération. Avec le modèle QHD+ (3 200 x 1 800) et Core i5, de 7e génération toujours, on descend brutalement à respectivement 13h 15min, 8h 30min et 9h 30min.

En clair, Dell ne communique pas pour le moment sur ce que l'on peut espérer avec les même processeurs de huitième génération, et encore moins avec ce Core i7 Quad. La première configuration qui en sera équipée débutera à 1 400 $, lancement le 12 septembre. La version Core i5 "Kaby Lake Refresh" est prévue en octobre. En France ces machines sont vendues à partir de 1 300 €.

Quant à Apple, difficile de prévoir son calendrier qui est tributaire de celui d'Intel. La Pomme peut tout à fait réaliser une mise à jour de certains modèles sans tambours ni trompettes mais ce ne serait pas très cohérent avec sa manière de procéder. Il paraît bien plus logique qu'elle attendent qu'Intel dispose de Kaby Lake améliorés pour couvrir, d'un coup, l'ensemble de ses besoins sur les MacBook Pro 13" et 15".

avatar Marco787 | 

Sur ma question :

"Les processeurs de 8eme génération série U sont quasiment identiques aux 7eme génération 7700HQ ? Comment est-ce possible ?"

Les éléments techniques que vous citez ne me sont pas étrangers. Le terme architecture est en outre utilisé dans un sens bien spécifique et un raccourci pour architecture autour de la gravure.

Mais au delà de ces considérations, le point clé qui seul intéresse les utilisateurs / acheteurs est le gain de performance. Sans compter les nouvelles fonctionnalités et technologies prises en charge en direct par cette nouvelle mouture, et qui contribuent à une meilleure expérience utilisateur.

Pour les cartes graphiques externes, aussi petit que vous le souhaitez est malheureusement impossible à ce stade et pas avant un certain temps...

Toutefois, cette box prend moins d'espace au sol qu'un XPS 15".

Même si dans le train elle ne marche effectivement pas, elle fonctionne dans une chambre d'hotel ou autre lieu temporaire, et surtout chez soi. Cela permet d'avoir une GTX1070 au domicile ou en déplacement en gardant son laptop compact. Pas besoin de desktop ou de lourd et volumineux gaming laptop.

avatar Bigdidou | 

@Marco787

« Cela permet d'avoir une GTX1070 au domicile ou en déplacement en gardant son laptop compact. Pas besoin de desktop ou de lourd et volumineux gaming laptop. »

Et la carte video,correctement refroidie.
J’ai l’impression que ce n’est pas forcément le cas sur les gros « portables » gamers, et que ça grève quand même la fiabilité.
La perte de performance de des cartes dans des boitiers externes est-elle du même ordre sur les pc et sur les macs (par rapport à leurs performances di elle étaient internes) ?

avatar fte | 

@Bigdidou

"La perte de performance de des cartes dans des boitiers externes est-elle du même ordre sur les pc et sur les macs"

Je pense que ce sera bien moins sensible sur Mac. Attention, ce n’est pas un compliment, voir la suite.

Les drivers vidéo étant à chier sur Mac et la performance limitée pas ces drivers plutôt que la bande passante ou latence, je pense que la perte de bande passante et la latence augmentée n’auront pas beaucoup d’impact. Ça restera mauvais. Mais meilleure que la vidéo interne. Si l’alim faiblarde du boitier arrive à suivre, ce qui n’est pas le cas avec les Vega à ce qu’il semble. C’est un autre problème. On voit bien le manque total d’expérience d’Apple en matière de GPUs, mais passons.

avatar Marco787 | 

@ fte

Il semble que vous devriez tirer la conclusion inverse de votre raisonnement : si les drivers sont très mauvais, alors la perte par rapport à un laptop PC (sous Windows) où les drivers sont bien meilleurs sera nécessairement plus élevée. La solution eGPU est donc pire sous Mac (en prenant votre raisonnement).

"Les drivers vidéo étant à chier sur Mac" Pourriez-vous illustrer ou préciser les sources qui chiffrent cela ? AMD fournissant en exclusivité les cartes graphiques des Mac, tout comme celle de la eGPU "officielle" Apple, il paraît peu crédible que les drivers de ces cartes soient mauvais. Sans compter l'attention médiatique des Mac et par ricochet des GPU en cas de problème. (Nividia fournit aussi des drivers, plus ou moins finalisés et optimisés.)

Par ailleurs, il est toujours possible de faire tourner Windows plutôt que macOS pour se connecter à une eGPU. Pour le jeux, Windows est d'ailleurs la solution idéale.

"On voit bien le manque total d’expérience d’Apple" Pourquoi dites-vous cela ? Apple n'est pas en charge ou responsable des boitiers GPU. Vega sera installé à l'intérieur des iMac Pro 27" dont l'alimentation sera évidemment suffisante (surtout à ce prix stratosphérique...).

avatar SartMatt | 

"Il semble que vous devriez tirer la conclusion inverse de votre raisonnement : si les drivers sont très mauvais, alors la perte par rapport à un laptop PC (sous Windows) où les drivers sont bien meilleurs sera nécessairement plus élevée."
Je pense qu'il a raison. Les framerates plus faibles sous macOS que sous Windows avec le même matériel, ce n'est pas parce que le GPU est plus lent sous macOS, c'est parce que le driver envoie moins de données au GPU, parce qu'il met plus de temps à les préparer.
Donc du coup, la bande passante PCI-E effectivement utilisée sous macOS est plus faible que sous Windows.

Et donc, si on bride la bande passante disponible en passant par le PCI-E, la baisse de performances est plus importante sous Windows que sous macOS. Si une autoroute se retrouve limitée à 50 pour travaux, le ralentissement est moindre si la vitesse effective était auparavant de 100 que si elle était de 120.

De même, le jour où les écrans des Mac supporteront FreeSync (si ça arrive un jour...), la perte sous macOS deviendra encore plus faible, parce que comme le framerate sera plus faible, la part de la bande passante consommée par le retour de l'image sera plus faible.

""Les drivers vidéo étant à chier sur Mac" Pourriez-vous illustrer ou préciser les sources qui chiffrent cela ? AMD fournissant en exclusivité les cartes graphiques des Mac, tout comme celle de la eGPU "officielle" Apple, il paraît peu crédible que les drivers de ces cartes soient mauvais. Sans compter l'attention médiatique des Mac et par ricochet des GPU en cas de problème."
Justement, comme AMD a le "monopole", puisqu'il est de notoriété publique qu'Apple est brouillée avec nVidia, il n'a pas spécialement besoin de se fouler sur les drivers (cela dit, même à l'époque où AMD et nVidia étaient régulièrement en concurrence, ni l'un ni l'autre ne se foulait).

Pareil pour nVidia, les drivers qu'il fournit, ça concerne essentiellement les hackintosh et les vieux Mac Pro qui ont été upgradés avec une carte plus récente. Crois-tu vraiment qu'un marché aussi ridiculement petit justifie que nVidia fasse de gros efforts sur la qualité des drivers ? D'ailleurs, y a qu'à voir comment ils sont distribués... Sur la page pilotes du site de nVidia, l'outil pour chercher le driver le plus récent en fonction de l'OS et de la carte qu'on a ne propose même pas Mac OS dans le choix des OS dès lors qu'on sélectionne des cartes plus récentes que la série 600 (celle sorties en 2012... je suppose que ce sont les dernières à avoir été officiellement proposées sur Mac par Apple)... et il ne trouve pour ces dernières que des drivers en version beta (stable pour les Mac Pro de 2008-2010, beta pour les MacBook Pro et iMac de 2012-2013, aucun support officiel d'autres Mac !). Officiellement, nVidia n'annonce que le support des GTX 680, GTX 285, GT 120, 8800 GT et quelques modèles de Quadro (voir ici : http://www.nvidia.fr/download/driverResults.aspx/120858/fr , à comparer à la liste de support du driver Linux par exemple : http://www.nvidia.fr/download/driverResults.aspx/123208/fr ). Toutes les autres cartes ne sont pas supportées officiellement (bien qu'elles le soient en pratique), ce qui montre bien à quel point nVidia ne veut pas se mouiller avec son driver Mac, ils peuvent toujours se cacher derrière un "c'est pas supporté et en plus c'est un driver beta"...

Au passage, la dernière version en date du driver pour Mac est la version 378.05, sortie en beta en avril 2017 (plusieurs mises à jour depuis, mais uniquement pour la compatibilité avec les mises à jour successives de Sierra, sans évolution, d'où le fait que ça reste en version 378.05). Dans cette même branche 378, le driver Windows est sorti dans une version plus avancée (378.49) et non beta sous Windows en janvier 2017 (et Windows est aujourd'hui à la version 385.41), en version plus avancée (378.09) et beta sous Linux en janvier 2017 également et en version finale sous Linux en février 2017. Même Solaris et FreeBSD sont mieux servis que macOS, avec des drivers finalisés et supportant officiellement toutes les cartes (et mêmes versions/date que sous Linux).

Et les anciennes versions de macOS sont encore plus mal servies, avec la version 346 sous El Capitan et Yosemite, la 334 sous Mavericks et la 313 sous Mountain Lion.

Voilà un article un peu ancien (2010) qui chiffre le retard sur les performances 3D à l'époque : https://www.macg.co/2010/11/performances-3d-windows-toujours-devant-mac-os-x-36281
Plus récemment (2016), des commentaires sur un forum : https://forums.civfanatics.com/threads/performance-on-macos-vs-windows-bootcamp.602278/
Un autre de 2015 : https://www.youtube.com/watch?v=ZIr0bWGFnsY
L'avis de PC Gamer : "With Windows running on your Mac, you’ll have access to a far better selection of games, and they’ll likely perform better than on OS X. With Sim City on OS X, we had to turn all the graphics details down for smooth performance on the 2013 Retina MacBook Pro we mentioned earlier, but on the same Mac in Windows, the game looked better and ran faster." ( http://www.pcgamer.com/pc-gamers-guide-to-gaming-on-a-mac/4/ )

avatar Marco787 | 

Une fois de plus, je ne pense pas que la question soit là (et je comprends ce que vous dites).

La question initiale était qu'elle est la perte de FPS via un eGPU en comparaison d'un portable avec GPU dédié. En d'autres termes, cette approche vaut-elle le coup ?

Que la cause soit les drivers, la bande passante ou autre, cela ne change pas le fait que selon le raisonnement de fte et le votre, la solution eGPU est pire sous mac que Windows.

Or vous tirez les deux la conclusion inverse. (En fait, vous répondez à une autre question.)

avatar SartMatt | 

Non, justement, selon notre raisonnement, la perte est moindre sous Mac par rapport à Windows, et c'est bien la conclusion qu'on en tire.

Ce qui ne veut pas dire que ça va aller plus vite sous Mac que sous Windows. Simplement que la perte est moindre.

Par exemple, si avec un GPU donné dans un jeu donné on a 60 fps sous macOS et 70 sous Windows, peut-être qu'en eGPU on aura 55 fps sous macoS et 60 fps sous Windows. C'est donc toujours plus lent sous macOS que sous Windows (là je suis bien d'accord avec toi, aucune chance que ça soit plus rapide en eGPU sous macOS que sous Windows alors qu'en interne c'est plus lent sous macOS que sous Windows), mais la perte liée à l'externalisation du GPU est moindre sous macOS que sous Windows. Parce que la bande passante est moins limitante sous macOS que sous Windows, à cause du driver qui limite.

avatar Marco787 | 

@ SartMatt

Cf. mon point plus haut, pour ne pas répéter.

L'exemple théorique ("Par exemple, si avec un GPU donné dans un jeu donné on a 60 fps") que vous donnez pose question.

Il n'existe aucun portable Apple équipé d'un GTX 1070 ou 1060 ou autre (contrairement aux PC), GPUs aussi disponibles en eGPU, et qui permettent donc de faire une comparaison valide.

Pourriez-vous svp préciser les GPU pour rendre votre exemple un peu plus proche de la réalité ?

avatar SartMatt | 

Oui, l'exemple est forcément théorique, puisque les GPU qui existent dans les portables n'existent pas sous forme de cartes PCI-E, et puisqu'il n'existe pas de Mac acceptant des cartes PCI-E (ou équipé d'origine d'un GPU existant sous forme de carte PCI-E) et dotés d'un port TB3 (peut-être le futur Mac Pro ?).

Mais le fait que la comparaison ne puisse pas se faire en pratique ne change rien au fait que l'impact de la bande passante réduite puisse être plus faible sous macOS que sous Windows.

avatar Marco787 | 

Si l'exemple ne peut être exister en vrai, quelle est sa valeur ?

Par ailleurs, il est possible de faire un test réel et plutôt concluant je pense :

Il suffit de comparer pour x jeux donnés joués avec les mêmes paramètres de jeu :

* un portable avec GTX 1070 dédié (existe en réalité)

* ce même portable relié via TB3 à une eGPU avec GTX 1070 qui fait tourner les jeux

* un MBP 2017 relié à cette même eGPU (idem)

En s'assurant qu'ils aient tous le même CPU (le candidat évident étant le 7700HQ), pour ne pas polluer les résultats par un CPU trop faible.

Il me semble qu'il faudrait plutôt analyser cela.

avatar SartMatt | 

"Si l'exemple ne peut être exister en vrai, quelle est sa valeur ?"
Sa valeur, c'est juste pour illustrer le fait que "perte moindre en eGPU sous macOS que sous Windows" n'est pas incompatible avec "performances moindres en eGPU sous macOS que sous Windows". Pas besoin de chiffres réalistes correspondants à un cas de test précis pour ça, il suffit de donner un exemple chiffré de situation qui correspond à ce cas.

Et la GTX 1070 qu'on trouve dans les portables n'est pas la même que celle qu'on trouve sur les cartes PCI-Express. Sur la série 10, nVidia a décidé de ne plus mettre de suffixe "M" sur les versions mobiles (sur la précédente génération, on avait par exemple 960 et 960M), parce qu'elles sont plus proches qu'avant des version burea, mais ça ne veut pas pour autant dire que les GPU sont identiques.

Par exemple, une 1070 de bureau a 1920 SP/120 TU/64 ROP à 1506-1683 MHz, tandis qu'une 1070 de portable a 2048 SP/128 TU/64 ROP à 1404-1670 MHz. Et le TDP réduit des versions pour portable fait qu'elles auront plus de peine à tourner à leur fréquence maximale, donc même si sur le papier les performances sont censées être quasi identique, ça ne sera pas forcément le cas en réalité.

Enfin, quand bien même on pourrait faire le test que tu préconises, il ne pourra apporter qu'une seule chose : savoir si les performances d'une GTX 1070 TB3 sont meilleurs sous Windows ou sous macOS. Il ne permettra pas de savoir ce qu'il en est de la différence de perte de performances avec le passage au TB3 entre mac OS et Windows. Du coup le premier ces de test est inutile, il n'apportera aucune information intéressante pour le monde Mac.

avatar Marco787 | 

Permettez-moi de vous re-demander si vous avez bien compris la question de départ (et mes remarques sur le hors sujet) ?

Il ne faut pas se noyer à nouveau dans des détails techniques, surtout s'ils ne sont pas explicités et compris, tout en oubliant l'essentiel.

Vous qui parlez du monde Mac, pensez-vous qu'un utilisateur Mac ou un joueur qui lirait votre phrase "[...] 1070 de bureau a 1920 SP/120 TU/64 ROP " la comprendrez ? (Vous même ne la comprenez pas réellement je pense, ayant par exemple omis l'indicateur technique clé de la puissance. Par ailleurs, la perte de performance n'est pas quantifiée, ce qui est la seule chose qui intéresse sur le point que vous abordez.)

Et plus important, quand bien même un joueur comprendrait, pensez-vous que c'est ce qui l'importe (ou intéresse le monde Mac) ?

Un joueur n'est-il pas plutôt concerné par les FPS atteints avec telle ou telle configuration de GPU ?

Il faut avant tout s'assurer de bien comprendre puis de répondre à la question posée.

Les GPU mobiles sont moins performants que les versions desktop (je le sais, merci), mais cela fait précisément partie du sujet, pour qui comprend la question posée.

Ce qui intéresse l'utilisateur / joueur / le monde Mac, c'est la performance atteinte avec telle ou telle configuration de portable, d'OS et d'eGPU et/ou l'écart entre ces configurations et la version desktop. (Ce qui est bien l'objet de mon test.)

avatar SartMatt | 

"Permettez-moi de vous re-demander si vous avez bien compris la question de départ"

Oui, la question de départ est exactement de savoir si "La perte de performance de des cartes dans des boitiers externes est-elle du même ordre sur les pc et sur les macs". Et c'est bien à cette question que nous tentons de répondre, fte et moi, avec l'argument que, du fait des drivers de GPU moins performants sur Mac, la bande passante est moins sollicitée sur Mac que sur PC, et donc, que la perte de performances liées au passage en TB (qui, techniquement, revient à brider la bande passante disponible) sera plus faible.

" pensez-vous qu'un utilisateur Mac ou un joueur qui lirait votre phrase "[...] 1070 de bureau a 1920 SP/120 TU/64 ROP " la comprendrez ?"

Un utilisateur de Mac est-il forcément quelqu'un qui ne s'intéresse pas à la technique et n'a aucune connaissance dans ce domaine ? Tu as une bien piètre image d'eux...

Personnellement, je connais plus d'un utilisateurs Mac et plus d'un joueurs qui comprennent parfaitement ces notions, et même qui restent sur leur faim si on ne leur donne que ces détails là au sujet d'un GPU...

"Vous même ne la comprenez pas réellement je pense, ayant par exemple omis l'indicateur technique clé de la puissance."

La puissance (brute) du GPU découle justement directement des caractéristiques que j'ai données !

La puissance de traitement des shaders en simple précision, elle est directement proportionnelle au nombre de SP multiplié par la fréquence (précisément, c'est 2*nSP*freq, chaque shader pouvant faire jusqu'à 2 instructions par cycle). La puissance de traitement des textures elle est directement proportionnelle au nombre de TU multiplié par la fréquence (elle vaut nTU*freq, chaque TU traitant un texel par cycle). Et le fillrate est directement proportionnel au nombre de ROP multiplié par la fréquence (elle vaut nROP*freq, chaque ROP traitant un pixel par cycle).

"Et plus important, quand bien même un joueur comprendrait, pensez-vous que c'est ce qui l'importe (ou intéresse le monde Mac) ?"
Et si je t'avais juste dit "les GeForce 1070 des portables ne sont pas les mêmes que celles des cartes", tu te serais contenté de ça, tu ne m'aurais pas demandé plus de détails ? J'ai plutôt l'impression que non, vu que depuis le débit, à chaque réponse que j'apporte, tu demandes des précisions complémentaires...

"Les GPU mobiles sont moins performants que les versions desktop (je le sais, merci)"
C'est justement plus compliqué que ça, et c'est pour ça que j'ai donné des détails supplémentaires... Parce que en l'occurrence, les GeForce mobile ne sont pas forcément plus lentes que les versions desktops. Elles sont différentes. Ces différences se traduisent en pratique par des performances théoriques supérieures sur certains points, inférieures sur d'autres (parce que comme on le voit avec les chiffres que j'ai donné, l'équilibre du GPU n'est pas forcément le même, une 1070 mobile a proportionnellement moins de ROP qu'une 1070 desktop)... Et même pas toujours de la même façon selon les références...

Par exemple, la 1070 mobile a en théorie de meilleurs performances brutes que la 1070 en shaders et en texturing, mais a un fillrate légèrement inférieur, alors que la 1050 Ti mobile est supérieure sur tous les points à la 1050 Ti desktop et que la 1050 mobile sont égales sur les shaders et les textures, mais très différentes sur le fillrate, qui varie carrément du simple au double (concrètement, ça veut dire que les performances de la version mobile vont s'écrouler beaucoup plus vite que celles de la version desktop lorsque la définition de l'image augmente) !

"Ce qui intéresse l'utilisateur / joueur / le monde Mac, c'est la performance atteinte avec telle ou telle configuration de portable, d'OS et d'eGPU et/ou l'écart entre ces configurations et la version desktop. (Ce qui est bien l'objet de mon test.)"
C'est l'objet de ton test, oui. Mais ce n'était pas la question initiale, posée par Bigdidou. Ton test sert à comparer les performances eGPU sous macOS et sous Windows. La question de Bigbidiou, c'est de savoir si la perte de performances entre le GPU et l'eGPU est du même ordre sous macOS que sous Windows. Question à laquelle on ne peut répondre QUE de manière théorique, il n'y a pas de test possible à ce jour, puisqu'il n'y a sur le marché aucun GPU qui soit disponible à la fois en interne et en externe sur un même Mac. Aucun.

Et c'est à cette question que fte et moi avons répondu.

Tout le reste n'est qu'ajout de détails complémentaires pour répondre à TES demandes de précisions.

avatar Bigdidou | 

@SartMatt

« Et c'est à cette question que fte et moi avons répondu. »

Oui, merci à tous pour toutes ce débat vraiment très intéressant.
J’en retiens que ma question est un peu précoce sur le plan hardware pur, et qu’il ne faut pas considérer que celui-ci : la qualité des pilotes, par exemple a son importance. Et là, windows parait avoir un net avantage.
J’ai appris par ailleurs que malgré des noms identiques, les cartes gpu n’étaient pas identiques en terme de performances à leurs versions desktop portant le même nom.

Il apparait de plus en plus au fil des lectures ici, que le choix d’un ordinateur sous Windows 10 n’est pas déraisonnable quand on de macOS et qu’on ne peu plus se payer un mbpr à 4000€.
J’ai glané ici et là des trucs idiots mais qui me rebutaient : une solution pour retrouver QuickLook, j’ai fini par comprendre comment utiliser et améliorer le système des bureaux sous Windows, et quelques autres trucs.
Surtout, la future version de l’XPS 15’ fera plus que tenir la route face au mbp 15’ pour 1500 € de moins (version ssd 1 To).

avatar Marco787 | 

En fait, des personnes qui connaissent réellement le sujet ont déjà fait les tests et ont donc mesuré la perte de performance... (Rassurez-vous, il n'y aucune inondation de détails techniques inutiles ou d'exemples impossibles dans ces revues.)

Pour ma part, et comme indiqué dans ma réponse initiale, ces résultats sont peu révélateurs (les testeurs le reconnaissent), au sens où la technologie étant encore largement en "béta", des améliorations fortes sont attendues à brève échéance.

Par exemple, pour reprendre l'eGPU que j'ai cité, le fabricant a sorti un firmware majeur (lié ni plus ni moins à la bande passante) il y à peine 10 jours (le 25 aout dernier seulement) !

Il est plus prudent d'attendre les prochains trimestres pour se faire une idée et ne pas baser ses décisions d'achat ou de non achat sur les résultats récents ceux-ci étant amenés à évoluer fortement à court terme.

Par ailleurs, les MPB 15" commencent à 2800 TTC, et les 13" à 1500 euros. Des sites font des remises de 10% ou plus (ex : Fnac).

avatar Bigdidou | 

@Marco787

« Par ailleurs, les MPB 15" commencent à 2800 TTC »
Avec 256 Go de stockage interne, c’est léger pour une machine qui se veut nomade et de toute façon pas pratique.

avatar fte | 

@Bigdidou

« Oui, merci à tous pour toutes ce débat vraiment très intéressant. »

Je n’ai pas suivi le fil, il est bloqué. J’ai par contre survolé tes messages et ceux de SartMatt.

Je vais ajouter un point à mon commentaire initial, qui a peut-être été dit mais qu’importe.

En boîtier externe, il y a une perte importante de bande passante entre le CPU et le GPU. En supposant un port TB3 single port, donc disposant de 4 lignes PCIe dédiée pour ce seul port, et aucun autre périphérique, la bande passante disponible sera environ 5x inférieure a une connection 16x interne.

Nos Mac ont des connecteurs double port au mieux. Deux connecteurs partagent 4 lignes PCIe. Les machines pas top du top chez Apple ont 2 lignes pour 1 ou 2 ports.

Selon l’utilisation et la configuration matérielle, la bande passante sera 5x inférieure au mieux, 10x inférieure souvent, 20x inférieure au pire.

Si on oublie les différences entre GPUs, rien que cette réduction massive de bande passante nous renseigne sur une perte de puissance disponible majeure, lorsque la bande passante devient un obstacle. On peut donc imaginer des usages qui souffriront plus que d’autres, lorsque la bande passante compte. En gros, tous les usages GPGPU, où le GPU est utilisé pour sa puissance de calcul. Les données doivent aller et venir entre CPU et GPU. Deep learning, mining, calculs scientifiques, simulations physiques, AR, accélération de rendus vidéo ou modélisation 3D... tous ces usages souffriront considérablement. Seul les usages unidirectionnels seront peu impactés, jeux et VR basiquement. Qui sont ceux mis en avant pour vendre ces solutions curieusement.

Sans parler du surcoût.

Il serait tellement plus simple d’avoir une putain de machine avec un putain de port PCIe disponible, plutôt que des solutions batardes destinées aux joueurs sur notebook.

avatar Marco787 | 

@ fte

Pour rappel, la question clé et pertinente est : en connectant un portable Mac à une eGPU, quelle est la perte de performance par rapport à ce que cette même GPU peut fournir au maximum (donc, évidemment, connectée en interne à un ordi de bureau puisqu'il s'agit de carte de bureau) ? Est-ce pire que sous PC ?

Au final, la perte est pour vous (à cause des drivers etc.) plus importante sous Mac / macOS que sous PC, n'est-ce pas ?

Concernant les jeux video (qui est le sujet) plutôt que d'autres usages, il n'apparaît pas que cette bande passante de 4 PCI-e soit significativement préjudiciable (tests utilisateurs). Avez-vous des tests montrant des conclusions différentes ?

Une fois de plus, il ne faut pas oublier de se placer du coté du joueur (verra-il une différence ?) et de se baser sur des tests réels.

Il me semble que les contraintes que vous citez ne sont pas spécifiques aux portables Mac, non ? Par exemple, les XPS 15 ont deux voies à vitesse non maximale...

Pour préciser votre propos "En supposant un port TB3 single port, donc disposant de 4 lignes PCIe dédiée pour ce seul port, et aucun autre périphérique", vous voulez dire aucun périphérique externe ?

Il existe depuis un certain temps des solutions (portables + carte eGPU) avec bus PCI-e direct et exclusif.

avatar Marco787 | 

@ SartMatt

"
Ton test sert à comparer les performances eGPU sous macOS et sous Windows. La question de Bigbidiou, c'est de savoir si la perte de performances entre le GPU et l'eGPU est du même ordre sous macOS que sous Windows. "

Une fois de plus, vous modifiez les propos d'autrui.

Où avez-vous vu que j'utilisais macOS pour mon test ?

Si vous comparez les performances eGPU sous macOS et sous Windows, vous allez avoir des FPS. Si vous les comparez, et selon vous, la solution macOS fournira moins de FPS.

Il y a donc bien une perte qui sera x% plus importante que sous Windows. C'est la question !

Et c'est la question aussi parce que c'est la seule chose qui intéresse un joueur : combien de FPS en moins s'il utilise telle configuration plutôt qu'une autre.

Vous et fte partez du postulat que le GPU en question doit être le même dans le MBP et l'eGPU.

Cela n'a aucun sens !

Vous dites vous même :

"Question à laquelle on ne peut répondre QUE de manière théorique, il n'y a pas de test possible à ce jour, puisqu'il n'y a sur le marché aucun GPU qui soit disponible à la fois en interne et en externe sur un même Mac. Aucun."

Bien sur que cela n'existe pas ! Et qui a dit le contraire d'ailleurs ?

Quelle est donc la pertinence d'aborder le sujet de la sorte ?

Par ailleurs, cela n'existe pas non plus pour les PC. Et pourtant, la perte de performance est bien constatée sur PC. Il s'agit d'un point crucial qui aurait du vous pousser à considérer votre approche comme erronée.

"
Un utilisateur de Mac est-il forcément quelqu'un qui ne s'intéresse pas à la technique et n'a aucune connaissance dans ce domaine ? Tu as une bien piètre image d'eux...
"

Vous êtes de mauvaise fois ! Il est évident que personne ou presque, Mac ou PC d'ailleurs, ne comprendrait votre phrase codée : "1070 de bureau a 1920 SP/120 TU/64 ROP"

Et une fois de plus, vous changez le sujet. On ne parle pas de notions en général, mais de vos phrases en particulier !

"
La puissance (brute) du GPU découle justement directement des caractéristiques que j'ai données !
"

Vous n'avez pas donné la caractéristique clé de la puissance, qui est pourtant listée comme les autres !

Il est facile de copier coller des chiffres de sites, encore faut-il copier ce qui est pertinent.

Ce qui montre bien que vous ne comprenez pas vraiment de quoi il s'agit, sinon, vous auriez mis cet élément en premier.

Vous dites que vous donnez des détails techniques pour répondre à mes demandes.

Ces détails et autres sont inutiles à moi-même et à un joueur, car hors sujet.

Vous "abordez" (superficiellement, partiellement et sans réelle explication) sous forme de certains détails techniques le comment la puissance se génère : ce n'est PAS la question.

Si on vous demande de traduire les chiffres que vous citez dans votre phrase codée ou ailleurs en puissance -combien de FPS pour tels jeux dans tels résolution et paramètres, ou combien la GTX 1070 est-elle plus puissante qu'une 1060 en terme de FPS-, vous ne pourrez pas le faire.

avatar SartMatt | 

"Où avez-vous vu que j'utilisais macOS pour mon test ?"

Effectivement, ce n'était pas indiqué... Du coup, ça répond encore moins à la question de Bigdidou...

"Si vous comparez les performances eGPU sous macOS et sous Windows, vous allez avoir des FPS. Si vous les comparez, et selon vous, la solution macOS fournira moins de FPS.
Il y a donc bien une perte qui sera x% plus importante que sous Windows. C'est la question !"

NON ! Le fait que le nombre de FPS final soit plus faible n'implique pas que la perte lié à l'eGPU est plus importante !
C'est ça qu'on explique depuis le début et que tu ne comprends visiblement pas...
Je refait l'analogique automobile du coup. Imagine une autoroute limitée à 70 pour cause de travaux et une nationale limitée à 60 pour causes de travaux. Tu es bien d'accord que la nationale est celle qui va le moins vite ? Et pourtant, la perte de vitesse liée au travaux y est plus faible. Parce que la vitesse de départ est plus faible aussi.

Et c'est exactement pareil avec le GPU et l'eGPU : comme le GPU délivre à la base moins de FPS sous macOS que sous Windows, il est possible que en eGPU il en perde moins que sous Windows (tout en restant quand même au final plus lent !).

C'est exactement ça la question de Bigdidou, et c'est à ça que fte et moi nous répondons, de manière théorique (vu qu'une réponse pratique est techniquement impossible à l'heure actuelle).

"Quelle est donc la pertinence d'aborder le sujet de la sorte ?"

Je ne sais pas. Mais c'est la question posée par Bigdidou. Donc plutôt que de répondre à une autre question parce que j'ai décidé que sa question n'est pas pertinente et qu'il aurait mieux fait d'en poser une autre, je réponds du mieux que je peux à sa question. C'est tout.

Et sa question a bel et bien un intérêt. On peut facilement tester la perte de performances liée à l'eGPU sur PC sous Windows.

Donc savoir si la perte de performances sera plus importante sous macOS que sous Windows permet de se faire une idée de ce à quoi on peut s'attendre avec un eGPU sur Mac.

Par exemple, si on a une tâche dont on constate qu'elle est en moyenne 20% plus lente sous macOS que sous Windows avec le GPU interne du Mac, si on a une source externe montrant que sous Windows cette tâche est 20% plus lente en eGPU qu'en GPU sous Windows, et si on sait que la perte de performances liée à l'eGPU est deux fois plus faible sous macOS que sous Windows, on peut raisonnablement s'attendre (théorie bien sûr, donc ce n'est pas absolument garanti) à ce qu'en s'équipant du même eGPU que celui utilisé par la source externe, les performances sous macOS soient seulement 10% inférieures à celles constatées par cette source externe sous Windows.

Ça permet donc d'aider à faire un choix d'achat sur un truc pour lequel on ne trouvera pas forcément un test correspondant précisément au cas d'usage qu'on veut.

""il n'y a sur le marché aucun GPU qui soit disponible à la fois en interne et en externe sur un même Mac. Aucun."
Bien sur que cela n'existe pas ! Et qui a dit le contraire d'ailleurs ?
[...]
Par ailleurs, cela n'existe pas non plus pour les PC"

Bien sûr que si ça existe sur PC. TOUTES les cartes qui peuvent être testée sur PC en eGPU peuvent également être testées en interne. Vu que fondamentalement, ce qu'on utilise en eGPU jusqu'à présent, c'est exclusivement des cartes PCI-E prévues pour être mises en interne.
Donc n'importe quel PC doté d'un port PCI-E 16x et d'un port TB3 peut être utilisé pour mesurer la perte de performances liée au TB3 avec un modèle de GPU donné.

"Vous n'avez pas donné la caractéristique clé de la puissance, qui est pourtant listée comme les autres !"

Sauf que justement, je le répète : le nombre de GFlops n'est pas plus une caractéristique clé que le fillrate ou la capacité de traitement des textures.
En donnant le détail des unités de traitement de la puce et de ses fréquences, je donne TOUTES les infos sur ses performances, tout en donnant également des infos sur l'origine des différences entre les différents GPU.

"Si on vous demande de traduire les chiffres que vous citez dans votre phrase codée ou ailleurs en puissance -combien de FPS pour tels jeux dans tels résolution et paramètres, ou combien la GTX 1070 est-elle plus puissante qu'une 1060 en terme de FPS-, vous ne pourrez pas le faire."

Bien entendu que je ne pourrais pas le faire. Personne ne peut le faire. Parce que le nombre de FPS dépend d'énormément d'autres paramètres :
* la complexité du jeu (et même plus précisément, la complexité de chaque image, le framerate dans un jeu donné n'est pas constant !),
* le reste des composants de la machine (CPU, RAM... et même le fait d'avoir un SSD ou un HDD peut jouer marginalement sur le framerate),
* le refroidissement (un même GPU, avec le même CPU, la même quantité de RAM, etc... donnera plus ou moins de FPS dans un jeux en fonction du refroidissement, car les turbo actuels des GPU se basent sur la température de la puce pour déterminer si la fréquence peut être augmentée ou non, parfois même en dépassant le TDP si le refroidissement est vraiment efficace),
* le système d'exploitation utilisé,
* les drivers utilisés,
* la configuration de ces drivers,
* la température ambiante (oui oui, je suis sérieux : avec un même système de refroidissement, le GPU atteindra plus facilement sa température limite si la température ambiante est plus élevée, donc il pourra moins exploiter son turbo !).

Bref, c'est rigoureusement impossible de prévoir le nombre de FPS que donnera une configuration donnée, ça ne peut se faire que par mesure.

Par contre, les chiffres que je donne aident à avoir une vision théorique des performances relatives. C'est au final ça qui compte quand on veut comparer diverses solutions.

Ces chiffres montrent par exemple que le niveau minimal de performances garanti pour une GTX 1070 pour notebook est plus élevé que celui d'une version desktop du point de vue de la puissance de traitement des shaders et des unités de texturing et plus faible du point de vue du fillrate (ce qui, concrètement, veut dire que la carte va par exemple pouvoir être un peu plus rapide sur du GPGPU, mais risque d'être plus lente sur du rendu 3D en très haute définition, vu son fillrate plus faible).

avatar Marco787 | 

@ SartMatt

"Effectivement, ce n'était pas indiqué... Du coup, ça répond encore moins à la question de Bigdidou..."

Cela n'est pas juste le fait que cela n'était pas indiqué : cela montre que vous modifiez les propos, à nouveau.

Par ailleurs, mon test répond à la problématique.

1 ) La sujet est lié au jeu. Pour jouer, Windows est plus adapté, c'est évident. Parlez de macOS est beaucoup moins utile.

Vous même affirmez que macOS est pire que Windows, mais au même moment, vous considérez qu'un joueur va utiliser macOS plutôt que Windows ?

2 ) La question d'origine ne parle de macOS : cela n'est pas écrit. Relisez.

Et quand bien même, parler de macOS ne change pas mes conclusions.

J'ai très bien compris vos explications. Mais comme indiqué, vous abordez le sujet sous un angle qui n'a pas de pertinence : vous même reconnaissez votre approche comme n'existant pas dans la réalité !

Par ailleurs, votre raisonnement omet un élément crucial qui lui existe dans la réalité : la possibilité d'utiliser Windows.

" Bien entendu que je ne pourrais pas le faire. Personne ne peut le faire."
C'est faux et archi faux : plein de tests de la sorte existent !

"Par contre, les chiffres que je donne aident à avoir une vision théorique des performances relatives. "

Où avez-vous donné des idées des performances relatives ? Où sont les chiffres ? Vous inventez !

Vous parlez d'avoir donné des performances relatives, mais ne répondez pas à ma question combien une carte GTX 1070 est plus puissante qu'une 1060 par exemple. Même en ordre de grandeur. A la place et comme toujours, vous sortez comme justification une litanie de détails techniques connus, inutiles et avec un raisonnement non pertinent (vous créez des problèmes qui n'existent pas pour justifier).

Evidemment que les % d'écart existent (des personnes sensées les ont déterminés) ! Il est totalement évident que dans les tests, les différents facteurs sont égalisés pour isoler la performance de la GPU !

La question clé et pertinente est :

En connectant un portable Mac (sous macOS ou Windows) à une eGPU, quelle est la perte de performance par rapport à ce que cette même GPU peut fournir au maximum (donc, évidemment, connectée en interne à un ordi de bureau puisqu'il s'agit de carte de bureau) ? Est-ce pire que sous PC ?

Dans la réalité, c'est ce qu'un joueur ou autre utilisateur va devoir choisir ou non, selon les résultats.

Vous pensez que si un joueur a une meilleure performance sous Windows plutôt que sous macOS avec son MacBook Pro, il va choisir macOS ?

Comment pouvez-vous raisonner de la sorte ?

avatar SartMatt | 

"Cela n'est pas juste le fait que cela n'était pas indiqué : cela montre que vous modifiez les propos, à nouveau."
Tu parlais quand même d'un Macbook Pro, sans aucune précision de l'OS, supposer par défaut que c'est sous macOS, c'est pas "modifier les propos", c'est juste le plus logique, vu que c'est l'OS par défaut installé sur ces machines !

"La question d'origine ne parle de macOS : cela n'est pas écrit."

Fondamentalement, la discussion elle part de la question de savoir si les pertes sont plus importantes sur Mac ou sur PC. Pour moi, quand on parle de "Mac" sans préciser l'OS, c'est macOS. Quand on parle de "PC" sans préciser l'OS, c'est Windows.
Parce que si derrière "Mac" il faut deviner que c'est "Mac sous Windows" quand la personne veut parler de ça, on n'est pas rendu... Et surtout, ça n'a alors aucun sens d'opposer "Mac sous Windows" à "PC sous Windows". Un Mac sous Windows EST un PC sous Windows. On peut opposer "Mac sous macOS" à "PC sous Windows" ou "tel modèle de Mac sous Windows" et "tel modèle de PC sous Windows". Mais pas "Mac sous Windows" à "PC sous Windows".

Parce que fondamentalement, les différences de performances entre Mac et PC à matériel équivalent, ce sont en fait les différences de performances entre macOS et Windows. Il n'y a aucune raison qu'il y ait des écarts significatifs de performances entre un Mac sous Windows et un PC équivalent sous Windows, ou que la perte liée au passage en TB3 soit différente entre un Mac sous Windows et un PC sous Windows. Donc ça n'a pas de sens de poser la question. Ça reprend du sens si on spécifie un modèle particulier de Mac et un modèle particulier de PC, puisque c'est alors la comparaison entre le matériel, avec un même OS.

"vous même reconnaissez votre approche comme n'existant pas dans la réalité !"
Non, tu n'as pas compris mon explication. Je dis que les moyens de vérifier ma théorie n'existent pas dans la réalité. Ça ne veut pas dire que ma théorie ne s'applique pas à la réalité.

"Où avez-vous donné des idées des performances relatives ? Où sont les chiffres ? Vous inventez ! "
Je parle des chiffres que j'ai donnée sur les spécifications des GPU. Ceux là même que tu me reproches d'avoir donné parce que cétrocompliké.

Connaitre la répartition des unités de deux GPU et leurs fréquences de fonctionnement permet d'évaluer les écarts de performances brutes théoriques de ces deux GPU pour différents types de traitements, et ainsi de se faire une idée des écarts qu'on pourrait avoir en pratique dans un contexte donné pour lequel on sait quelles sont les caractéristiques importantes. Dans le cas particulier que je donnais, ça permet de voir notamment que la 1070 notebook offre des performances brutes plus élevées sur certaines tâches et moins élevées sur d'autres par rapport à une 1070, ce qui au passage montre qu'on ne peut pas réduire à un seul chiffre les performances d'un GPU et qu'on ne peut pas faire un classement absolu des performances des GPU.

"Vous parlez d'avoir donné des performances relatives, mais ne répondez pas à ma question combien une carte GTX 1070 est plus puissante qu'une 1060 par exemple."
Je n'ai pas répondu à la question, mais je t'ai expliqué pourquoi il n'est pas possible d'y répondre. Tu as posé cette question dans un contexte de FPS dans un jeu. Et je t'ai dis qu'il est impossible d'y répondre de façon théorique, on ne peut répondre à une telle question que par une mesure pratique. Et dans un contexte précis. Même un ordre de grandeur, ça n'a pas de sens de le demander.
Parce que dans certains contextes, une GTX 1070 pourra offrir 50% de FPS en plus, alors que dans d'autres contextes elle n'en offrira pas 1% de plus. Parce que en théorie la 1070 fait +50% en shaders et en texturing et +33% en fillrate et en bande passante mémoire par rapport à une 1060 (6 Go, parce que la 3 Go est plus lente, elle ne se se contente pas d'avoir juste moins de mémoire), donc selon les besoins précis d'une application 3D l'écart théorique peut déjà varier entre 33 et 50%, et ce seulement si on est limité uniquement par le GPU, alors qu'en pratique on pourra être limité par d'autres éléments, notamment le CPU.

Va regarder par exemple les tests de Hardware.fr sur ces cartes, dans un même PC, tu verras que les écarts de performances sont extrêmement variable d'un jeu à l'autre, d'un réglage à l'autre.

Par exemple, sous Project Cars en 1440p, la 1070FE est 36% plus rapide que la 1060FE. Dans le même jeu en 1080p, l'écart tombe à 28%. Dans DiRT Rally, il monte à 40% en 1440p... Ailleurs, ça atteint 45%... Et il s'agit là de moyennes pour chaque jeu, qui masquent en outre le fait que selon le moment de la scène, l'écart peut être beaucoup plus faible... Et ça c'est tout sauf un détail...

Je m'explique, avec ces chiffres à l'appui puisque tu tiens à avoir des mesures réelles : http://forum.notebookreview.com/threads/egpu-gtx-970-vs-gtx-1060-vs-gtx-1070-result.797617/ (fin de la seconde vidéo)
Sur ce test, la GTX 1060 fait 54.3 FPS de moyenne, 21.3 de min et 103.5 de max, la 970 fait 51.5/15.4/100.8 et le GTX 1070 fait 72.6/23.3/135.8.
On voit donc que sur cet unique test, la 1060 est en moyenne seulement 5% plus rapide qu'une 970. Vu comme ça, on peut se dire que c'est pas énorme et que ça a donc peut d'intérêt... Mais par contre, on voit que le framerate minimum bondit de 38%. Et ça c'est énorme, parce qu'au final, pour améliorer le confort dans un jeu, ce qui est le plus important ce n'est pas d'augmenter le framerate moyen, mais d'augmenter le framerate minimal !

Et c'est également variable d'un PC à l'autre. Donc ça n'a pas de sens de demander des nombres de FPS ou l'écart entre deux cartes sans donner un contexte précis, et il n'est pas possible de répondre de manière théorique à ce genre de question, seule une mesure pratique peut le faire.

Bref, on voit bien que donnes des choses précises de manière théorique est impossible. Mais ce qu'on peut faire, c'est estimer les tendances pratiques qui peuvent se dégager des données théoriques. Et c'est pour ça qu'il est utile de connaître le détail de la composition d'un GPU, et pas seulement la puissance de calcul brute.

"Vous pensez que si un joueur a une meilleure performance sous Windows plutôt que sous macOS avec son MacBook Pro, il va choisir macOS ?"
Non, bien sûr. Sauf s'il n'a pas Windows, s'il n'a pas envie de rebooter, si l'écart de performances, bien qu'existant, n'est pas énorme ou pas gênant, ou tout autre raison qui ferait qu'il préfère rester sous macOS.

Et surtout, désolé, mais moi quand on me parle de "Mac" contre "PC" sans préciser d'OS, je considérerais toujours que le Mac est sous macOS et le PC sous Windows. Sinon ça n'a pas de sens d'opposer les deux !

avatar Marco787 | 

Il me paraît important à ce stade de traiter le sujet et de clarifier les positions. A cette fin, pourriez-vous répondre aux questions suivantes ?

1) Etes-vous d’accord maintenant pour dire que mesurer la perte de performance par rapport à une carte graphique mobile n’a aucun sens et utilité, puisqu’il n’existe pas de telle carte pour boitier externe (eGPU) ? Et que par conséquent, la perte de performance se mesure évidemment par rapport à une carte intégrée à un ordi de bureau.

2) En rapport avec votre remarque :

"Je parle des chiffres que j'ai donnée sur les spécifications des GPU. Ceux là même que tu me reproches d'avoir donné parce que cétrocompliké.
"

Je n’est pas dit que c’était trop compliqué, mais que vous ne les expliquiez pas (où sont les explications ? il s’agit d’une phrase cryptique), que votre phrase était incompréhensible pour quasiment tout le monde -montrez votre la, vous verrez-, que vous ne savez pas en réalité à quoi ils correspondent (peu de personnes le savent...), et que surtout, ces chiffres n’ont que peu d’utilité à part décorative / marketing.

La question est : si ces chiffres sont comme vous l’affirmez utiles, pertinents et permettent de déterminer la puissance brute (en reprenant votre concept), alors pouvez-vous nous indiquer l'écart de cette même puissance brute entre une GTX 1070 et une Radeon Pro 580 (toutes deux de bureau) ?

3) Vous disiez jusqu'à présent que macOS était pire pour les jeux que Windows (à cause des drivers en particulier), et maintenant vous indiquez : "si l'écart de performances, bien qu'existant, n'est pas énorme ou pas gênant”.

Cela n’est-il pas contradictoire ? Et annule donc votre conclusion liée ?

4) "[...] Donc ça n'a pas de sens de demander des nombres de FPS ou l'écart entre deux cartes sans donner un contexte précis".

Il est évident que l'environnement de test doit être identique pour isoler la performance de la carte graphique et c’est exactement ce que font les testeurs d’ailleurs. Et c’est bien pour cette raison qu’il n’est pas besoin de le mentionner. Dès lors, plutôt que de dire à nouveau qu’il n’est pas possible de répondre, pourquoi ne pas avoir donné une réponse sur l’écart de performance brute -et pas sur les FPS- entre deux GPU en précisant votre contexte le cas échéant (cf. aussi question 2) ?

P.S. Pour éviter des réponses longues, je m’abstiens de commenter vos autres points.

avatar SartMatt | 

"1) Etes-vous d’accord maintenant pour dire que mesurer la perte de performance par rapport à une carte graphique mobile n’a aucun sens et utilité, puisqu’il n’existe pas de telle carte pour boitier externe (eGPU) ?"
Ce n'est pas que ça n'a aucun sens ou aucune utilité. C'est que c'est impossible à mesurer, puisque de fait, on ne peut pas tester avec le même GPU en interne et en externe sur un portable. Et ça j'ai jamais dit le contraire... Au contraire, c'est moi qui t'ai rappelé plus haut que dans le cas des portables, on ne peut raisonner que de manière théorique pour la perte de performances en eGPU, faute de pouvoir tester avec le même GPU en interne...

Mais même en l'absence de mesure, l'information théorique peut avoir un intérêt. Savoir qu'il y a x% de pertes en eGPU peut permettre d'évaluer à quoi on peut s'attendre en montant une carte en eGPU alors qu'on connait les performances de cette carte quand elle est montée en interne sur une autre machine. Les chiffres ne seront bien entendu pas exactement les mêmes, mais ça peut donner une idée de l'ordre de grandeur, ce qui est important avec d'acheter... Si je sais que la carte que je convoite donne 70 fps dans le jeu auquel je veux jouer sur un PC de bureau avec un CPU à peu près équivalent à celui de mon portable et si je sais que la perte à laquelle il faut s'attendre en eGPU est de l'ordre de 20%, je peux estimer que ça risque d'être un peu juste pour faire tourner convenablement le jeu. Ce n'est pas certain, parce que ça reste théorique, mais ça donne une idée, qui va m'aider à déterminer si oui ou non je vais acheter cette carte.

"Je n’est pas dit que c’était trop compliqué, mais que vous ne les expliquiez pas (où sont les explications ? il s’agit d’une phrase cryptique), que votre phrase était incompréhensible pour quasiment tout le monde -montrez votre la, vous verrez-, que vous ne savez pas en réalité à quoi ils correspondent (peu de personnes le savent...), et que surtout, ces chiffres n’ont que peu d’utilité à part décorative / marketing."
1) L'un des grands intérêts d'Internet, c'est de pouvoir faire des recherches. Ça évite de devoir systématiquement réexpliquer tous les détails techniques à chaque message : ceux qui ne les comprennent pas et veulent en savoir plus peuvent faire un peu de recherche. Tu tapes "GeForce SP TU ROP" dans Google,
2) Je sais très bien à quoi ces 3 chiffres que j'avais donné correspondent. Tu ne me connais pas, je ne vois pas ce qui te permet d'affirmer ainsi que je ne maitrise pas ces informations (juste pour info, j'ai été rédacteur d'articles techniques sur deux gros sites francophones, dont un spécialisé dans le jeu vidéo).
3) Ces chiffres sont tout sauf marketing, ce sont des détails sur l'architecture globale du GPU.
D'ailleurs, faudrait que tu sois un minimum cohérent avec toi même : tu ne peux pas en même temps dire que c'est incompréhensible pour tout un chacun et que c'est marketing. Le marketing, c'est justement l'art de présenter les choses au consommateur pour le pousser à acheter, lui présenter des choses incompréhensible est rarement efficace pour vendre...

"La question est : si ces chiffres sont comme vous l’affirmez utiles, pertinents et permettent de déterminer la puissance brute (en reprenant votre concept), alors pouvez-vous nous indiquer l'écart de cette même puissance brute entre une GTX 1070 et une Radeon Pro 580 (toutes deux de bureau) ?"
Mais oui, ces chiffres sont tout a fait utilisables pour comparer la puissance brute de deux cartes dont les spécifications sont connues.
Donc pour la GTX 1070 (desktop), on a, comme dit plus haut, 1920 SP, 120 TU, 64 ROP avec une fréquence de 1506 MHz garantie et jusqu'à 1683 MHz en turbo.
Pour une Radeon Pro 580, c'est 2304 SP, 144 TU, 32 ROP avec une fréquence garantie de 1257 MHz et une fréquence turbo de 1340 MHz.
Donc on obtient les puissance brutes suivantes, aux fréquences garanties :
* 5783 GFlops en puissance de "calcul" (les shaders), 181 GTexels/s en traitement de textures et 96 Gpixels/s pour le rendu côté GeForce (et jusqu'à +12% sur ces 3 valeurs avec le turbo),
* 5792 GFlops en calcul, 181 GTexels/s en textures et 40 Gpixels/s pour le rendu.

Et c'est là qu'on voit l'intérêt d'avoir tous ces chiffres plutôt que juste le nombre de Gflops habituellement mis en avant par certains (Apple la première) : en puissance brute, la Radeon Pro 580 fait jeu égal avec la GTX 1070 pour les calculs et les textures, mais elle est complètement à la ramasse niveau fillrate. Donc donner juste les Gflops masque complètement ce déséquilibre, qui va la handicaper en très haute définition, en particulier sur les écrans "gamers" à plus de 100 Hz.

"Vous disiez jusqu'à présent que macOS était pire pour les jeux que Windows (à cause des drivers en particulier), et maintenant vous indiquez : "si l'écart de performances, bien qu'existant, n'est pas énorme ou pas gênant”.

Cela n’est-il pas contradictoire ? Et annule donc votre conclusion liée ?"
En quoi est-ce contradictoire ? J'ai dis que macOS est plus lent pour les jeux. Ça ne veut pas forcément dire que cet écart est toujours important où gênant, surtout que ça peut énormément varier d'un jeu à l'autre... Perdre 20% sur un jeu qui tourne à 60, c'est gênant. Perdre 30% sur un jeu qui tourne à 150, c'est pas gênant (surtout que de toute façon la majorité des écrans n'affiche pas plus de 60 !).

"Il est évident que l'environnement de test doit être identique pour isoler la performance de la carte graphique et c’est exactement ce que font les testeurs d’ailleurs. Et c’est bien pour cette raison qu’il n’est pas besoin de le mentionner."
Bien sûr qu'il est important de le mentionner. Perso, un test de cartes graphiques qui ne précise pas le contexte du test (à minima, le reste des composants de la machine, idéalement aussi les options graphiques utilisés dans les jeux et les versions des drivers), je vais clairement pas m'attarder longtemps dessus, car on perd des informations essentielles.

Accessoirement, un environnement de test identique n'implique pas forcément l'isolation des performances de la carte graphique. Un environnement de test identique te garanti juste que les différences que tu observes viennent de la carte graphique. Isoler les performances de la carte graphique, ça nécessiterait de mettre au point un environnement de test où la carte graphique est le facteur limitant des performances 100% du temps. C'est éventuellement envisageable avec des benchmarks théoriques, mais difficilement avec des tests pratiques, comme des jeux, où on aura souvent d'autres facteurs limitant qui entreront en jeu plus ou moins fréquemment. C'est pour ça qu'il est important de mentionner l'environnement de test, histoire de se faire une idée des facteurs limitants qui pourraient intervenir. Par exemple, si je vois un comparatif de cartes graphiques fait une machine à base de Core i3, connaître ce détail me donne une information importante : moi qui ait un Core i7, je peux m'attendre à ce que les écarts de performances entre deux cartes soient plus importants chez moi que ce qui est dans le test. Le test renseigne donc sur la hiérarchie des cartes (une carte plus rapide qu'une autre avec un CPU lent sera à de rares exceptions près aussi plus rapide avec un CPU rapide), mais pas sur les écarts réels qu'on pourra avoir sur une configuration différente.

" pourquoi ne pas avoir donné une réponse sur l’écart de performance brute -et pas sur les FPS- entre deux GPU en précisant votre contexte le cas échéant"
Parce que quand on me pose une question, je réponds à la question. Je ne réponds pas à une autre question (répondre sur la puissance brute, donc théorique, quand on demande des FPS, donc des performances pratiques) ou en ajoutant un contexte qui n'est pas forcément celui auquel l'auteur de la question pense (si je te réponds avec les FPS dans un jeu et avec un CPU donné, ça peut être complètement à côté de la plaque par rapport au contexte auquel tu pensais en posant la question et qui t'intéresse).
Et surtout, comme je te l'ai déjà précisé initialement, c'est une question à laquelle on ne peut pas répondre théoriquement. On ne peut y répondre que par la mesure.
Or, ta question était justement sur ma capacité à "convertir" les chiffres théoriques que j'avais données en nombre de FPS dans un jeu donné (je cite : "Si on vous demande de traduire les chiffres que vous citez dans votre phrase codée ou ailleurs en puissance -combien de FPS pour tels jeux dans tels résolution et paramètres, ou combien la GTX 1070 est-elle plus puissante qu'une 1060 en terme de FPS-, vous ne pourrez pas le faire."). La seule réponse possible à cette question, quelque soit le jeu, le contexte et la carte graphique concernée, c'est de dire : il faut tester. Parce que la réponse est rigoureusement impossible à donner sur une base théorique.

avatar fte | 

@SartMatt

Ta patience est admirable. Presque effrayante.

avatar SartMatt | 

Je viens d'une famille de pédagogue, ça doit être génétique ^^

avatar Marco787 | 

Quand vous dites que vous êtes "pédagogue", vous faites de l'humour je présume ?

En reprenant par exemple votre phrase (pur ne citer qu'un exemple) "une 1070 de bureau a 1920 SP/120 TU/64 ROP", sans aucune explication, il est clair qu'elle est incompréhensible pour presque tout le monde.

avatar SartMatt | 

"En reprenant par exemple votre phrase (pur ne citer qu'un exemple) "une 1070 de bureau a 1920 SP/120 TU/64 ROP", sans aucune explication, il est clair qu'elle est incompréhensible pour presque tout le monde."

Reprend le contexte dans lequel j'ai donné ces chiffres : c'était simplement pour illustrer le fait que les GTX 1070 notebook et desktop ne sont pas les mêmes, malgré leurs noms identiques.

Donc à la limite, tu n'as même pas besoin de comprendre ce que signifient exactement ces chiffres : le simple fait qu'ils soient différents est suffisant dans ce contexte (qui est justement de montrer qu'il y a une différence). Après, si tu as envie d'en savoir plus sur ce que signifient ces chiffres, rien ne t'interdit de creuser ou de demander des explications. Mais dire que donner ces chiffres n'a pas de sens parce que tout le monde ne les comprends pas forcément, c'est idiot dans ce contexte. Pas besoin de savoir ce qu'est un SP, un TU et un ROP pour comprendre qu'un GPU avec 1920 SP / 120 TU / 64 ROP est différent d'un GPU avec 2048 SP / 128 TU / 64 ROP et n'a pas le même "équilibre". Et ce même s'ils ont le même nom.

C'est comme si je te dis que ma 207 et celle de mon voisin ont un moteur de même architecture, mais moi en 4 cylindres / 8 soupapes et lui en 4 cylindres / 16 soupapes : tu n'as pas besoin de comprendre ce qu'est un cylindre ou une soupape pour comprendre que nous avons des moteurs construits sur une base commune mais qui diffèrent dans le détail de l'implémentation de cette base commune.

avatar Marco787 | 

Désolé, mais une fois de plus, votre raisonnement ne m'apparaît pas comme logique.

Le sujet n'est pas ces cartes sont elles différentes, ce qui est de toute façon connu puisque l'une est une GTX 1070 de bureau et l'autre une GTX 1070 pour portable. Personne n'a dit le contraire, non ? Pas besoin donc de rentrer dans des détails techniques.

Par ailleurs, si l'écart de performance est de 3% ou 2% ou autre, cela n'a aucune sens de lés considérer comme différentes : aucun joueur ne peut remarquer un tel écart.

Dire simplement "elles sont différentes malgré un nom identique" n'a donc aucune pertinence et utilité.

Le sujet posé est quel est l'écart de performance pour les jeux / la perte de performance entre GPU de bureau et cette même GPU via eGPU (connectée à un Macbook Pro vs un PC).

Plutôt que de donner des détails techniques, une réponse sous forme de x% ou autre ordre de grandeur plus lent en moyenne pour tels jeux (en précisant évidemment, la résolution et les paramètres de jeux) est l'information recherchée.

Votre exemple est parfait car il résume les problèmes de votre approche, certains que je liste depuis le début :

* Le sujet n'est pas de dire si votre 207 est différente de celle de votre voisin, mais plus rapide ou plus lente, et surtout de combien, car être vague n'apporte aucune valeur ajoutée.

* Sur la base des éléments de votre exemple, surtout si je comprends pas ce qu'est "est un cylindre ou une soupape", je ne vois pas par quel miracle je pourrais en déduire que les moteurs sont sur une "une base commune ". C'est impossible.

* En outre, en quoi ces chiffres peuvent-ils nous donner une idée de l'écart de vitesse (qui est le sujet avec cette analogie) ?

* Et de combien votre 207 est-elle plus rapide ou pus lente que l'autre ? Vos chiffres ne permettent pas d'y répondre. Il sont donc inutiles.

Etre pédagogue, c’est expliquer clairement, sans être vague ou ambigu, sans lister des données inutiles (et non expliquées), et en répondant au sujet.

avatar Marco787 | 

@ fte : votre approche est peu logique et peu admirable.

avatar Marco787 | 

@ FTE

Votre approche est peu logique et peu admirable.

Vous concluez l'inverse de votre raisonnement : .

Si macOS est dés le départ pire que Windows pour les jeux, quelque soit la raison (drivers, etc.), alors l'eGPU a moins de sens et d'utilité sous Mac que sous PC. .

C'est totalement évident ! .

En d'autres termes, la puissance effectivement obtenue de l'eGPU est largement plus faible sous Mac (selon vous) que sous Windows. Donc la performance de l'eGPU est largement plus perdue sous Mac. .

Et pourtant, vous concluez que la perte de performance est moindre ! .

Quel bel exemple de logique et de pertinence ! .

(Je comprends tout à fait votre raisonnement, mais il aborde le problème de manière non pertinente. Pour un joueur qui a payé par exemple une eGPU avec carte 1 000 euros pour la relier à son Mac, vous pensez vraiment que cela peut le rassurer ou changer quoique que ce soit de savoir que le problème vient de l'OS, des drivers ou de x ou y ? Ce qui compte c'est quel performance de jeux est atteinte avec la carte de l'eGPU. C'est ce qui guide sa décision d'achat.)

Et en plus, vous ne n'abordez le sujet que sous l'angle macOS, alors que 1) le sujet est le jeu, que 2) Windows fonctionne sur Mac et que 3) Windows est plus adapté pour les jeux pour diverses raisons (cf. mes autres commentaires). .

A nouveau, comment est-il possible d'avoir une vision aussi limitée ?

Enfin, parlez de bande passante -en l'absence comme toujours d'élément tangible et précis- comme facteur de différenciation est plus que douteux.

.

Les MacBook Pr 15" (2016 et ultérieurs) ne sont pas pire que (par exemple) les XPS 15" ou bien d'autres PC portables. (Au contraire même.)

avatar SartMatt | 

"Le sujet n'est pas ces cartes sont elles différentes, ce qui est de toute façon connu puisque l'une est une GTX 1070 de bureau et l'autre une GTX 1070 pour portable."
Mais quelle mauvaise foi !

Si j'ai donné les caractéristiques de ces cartes pour montrer qu'elles sont différentes, c'est parce que TU sous entendais bel et bien le contraire, en disant que la comparaison entre un portable équipé d'une GTX 1070 (donc version notebook) et ce même portable avec une GTX 1070 en eGPU (donc version desktop) permet de mesurer la perte liée à l'eGPU. Voir tes messages du 02/09 à 16h40 et 17h42.

"Par ailleurs, si l'écart de performance est de 3% ou 2% ou autre, cela n'a aucune sens de lés considérer comme différentes : aucun joueur ne peut remarquer un tel écart."
Mais le fait est que cet écart, même faible, rend ce couple de GPU inutilisable pour mesurer la perte lié à l'eGPU, alors que tu affirmais le contraire.

Surtout que les écarts entre GPU et eGPU sont pas forcément énormes (voir ici, où on voit que selon les tests, l'écart peut parfois tomber largement en dessous de 10%, particulièrement dans les tests en 1440p et en 4K* : https://egpu.io/forums/mac-setup/pcie-slot-dgpu-vs-thunderbolt-3-egpu-internal-display-test/ ), donc partir avec un écart de ne serait ce que 2-3% entre les deux GPU, ça peut déjà fortement fausser la mesure de la perte de performances... Si on veut mesurer la baisse de performances liées à l'eGPU, il faut bien prendre le même GPU en interne et en externe (en fait, même plus que ça, il faut prendre la même carte, vu que deux cartes avec le même GPU n'offrent pas forcément les mêmes performances...), pas deux GPU proches.

* ce qui illustre d'ailleurs ce que fte et moi disons depuis le début : quand la bande passante PCI-E devient moins limitante, la chute de performances liée au passage en externe est plus faible. Ici, la dépendance à la bande passante est plus faible parce que la puissance de calcul et la bande passante mémoire du GPU deviennent plus limitantes quand on augmente la définition, plus haut on disait que sur Mac la bande passante PCI-E est moins limitante en raison de drivers moins efficaces. Causes différentes, mais même conséquences : une bande passante moins limitante, et donc, une chute de performances moindre quand on restreint la bande passante.

"Sur la base de éléments de votre exemple, surtout si je comprends pas ce qu'est "est un cylindre ou une soupape", je ne vois pas par quel miracle je pourrais en déduire que les moteurs sont sur une "une base commune "."
Peut-être parce que j'ai dit "DE MÊME ARCHITECTURE", l'un avec 4c/8s l'autre avec 4c/16s.
Et du coup, même sans savoir ce que sont une soupape ou un cylindre, tu peux raisonnablement supposer que le second est plus puissant.

Et c'est pareil avec les GPU, t'as pas besoin de savoir ce qu'est un SP, un TU et un ROP pour comprendre que plus il y en a plus c'est rapide à fréquence égale.

"En outre, en quoi ces chiffres peuvent-ils nous donner une idée de l'écart de vitesse (qui est le sujet avec cette analogie) ? Et de combien votre 207 est-elle plus rapide ou pus lente que l'autre ? Vos chiffres ne permettent pas d'y répondre. Il sont donc inutiles. Tel était mon point."
Sauf que quand j'ai donné ces chiffres, ce n'était pas pour répondre à la question "quelle est l'écart de performances entre une GTX 1070 notebook et une GTX 1070 de bureau" (cette question est venue plus tard), mais simplement pour montrer qu'il s'agit de deux GPU différents. Tel était mon point. Et ces chiffres suffisaient à le démontrer, sans nécessiter aucune précision ou connaissance supplémentaire. Les chiffres sont différents, donc les GPU sont différents, quelques soient les caractéristiques techniques effectivement représentées par ces chiffres.

"Le sujet n'est pas de dire si votre 207 est différente de celle de votre voisin, mais plus rapide ou plus lente"
Et pourquoi donc ? Je n'ai pas dit à quel question je répondais dans cet exemple. Peut-être que je répondais seulement à quelqu'un qui pensait que j'ai la même voiture que mon voisin. Tout comme en donnant les spécifications des GTX de bureau et notebook,
je répondais à quelqu'un qui croyait que ces GPU étaient les mêmes...

Mais forcément, à force de ne répondre qu'aux questions qui t'arrangent plutôt qu'aux questions réellement posées, forcément, les réponses des autres sont différentes des tiennes... Mais au moins, fte et moi avons bien répondu à la question de bigdidou, contrairement à toi qui t'évertues depuis trois jours à nous dire que nos réponses sont mauvaises parce que bigdidou aurait dû poser une question différente. Sauf qu'il a bien posé cette question, pas celle que tu aurais aimé qu'il pose.

Si on me demande "quel est le théorème de Pythagore", je répond en donnant le théorème de Pythagore, pas en donnant le théorème de Thales et en ajoutant "tu voulais sans doute demander le théorème de Thales parce que demander celui de Pythagore ça n'a pas de sens", parce qu'en fait je connais que celui de Thales...

avatar Marco787 | 

@ StarMAtt

Comme toujours, vous vous vous accrochez à des détails inutiles, et vous oubliez le sujet clé de départ.

Pour l'amour du ciel, revenez à la question de départ.

Le point de départ est la carte graphique dédiée de bureau (qui peut fournir au mieux x FPS pour tel jeu, telle résolution, tels paramètres) et la perte de performance qui pourrait apparaître en configuration eGPU reliée à un portable (PC vs. MacBook Pro).

Mais 1) vous avez compris carte graphique dédiée de portable, et 2) votre point de départ (la base 100 si l’on veut) est la performance sous Mac, plutôt que la carte graphique de l'eGPU utilisée dans un ordi de bureau.

En d’autres termes, vous abordez le sujet sous l’angle “de combien va s’améliorer l’expérience sur un Mac”, plutôt, que quelle performance de la GPU d’origine (= base 100) va rester au final sous un Mac.

Il m'apparaît que plutôt que d'admettre cette mauvaise interprétation (qui fonde le reste de votre raisonnement), vous voulez justifier par tous les moyens l'interêt de cette approche (qui ne peut être que purement théorique concernant la partie GPU mobile, comme vous le reconnaissez d'ailleurs).

Considérer qu'une chose qui n'existe pas puisse être utile au sujet ne peut avoir de sens. Cette chose n'existant pas, elle ne peut être achetée ou choisie par un utilisateur / joueur (le sujet), comme indiqué à plusieurs reprises.

Et vous continuez à défendre votre position en justifiant : "permettre d'évaluer à quoi on peut s'attendre en montant une carte " Si la carte n'existe pas en eGPU, comme vous l'admettez, vous ne pouvez pas la monter en eGPU.

Votre approche est comme si on parlait du problème des embouteillages et des durées de trajets entre domicile et travail, et que vous disiez : si on a une machine qui permet de se téléporter où l'on veut et instantanément, et qui est compacte et peut être installée partout, alors on résout tous ces problèmes.

Bien sur, sauf que cette machine n’existe pas ! C’est le point essentiel et de base que vous vous manquez.

Au départ je vous le rappelle, vous affirmiez qu'il était impossible de benchmarker en vrai. Après vous avoir dit que cela était réalisé très régulièrement, votre réponse fut de dire que les conditions changent et autres paramètres, et que les paramètres ne sont pas cités, et que donc il est impossible de vraiment répondre.

Vous ajoutez maintenant ”Perso, un test de cartes graphiques qui ne précise pas le contexte du test [...] je vais clairement pas m'attarder longtemps dessus"

C'est évident. Où avez-vous vu le contraire ? Il est patent que dans un test de comparaison de jeux, on mentionne les conditions. Pourquoi vous obstinez à présenter ce faux problème, à part pour ne pas admettre, il me semble, que votre position est infondée ?

Et il est aussi évident que c'est le même jeu, la même résolution d'écran et les même paramètres de jeux qui vont être utilisés pour mesurer la perte de performance en eGPU.

Dans mon test, j'avais par exemple explicitement indiqué : "En s'assurant qu'ils aient tous le même CPU (le candidat évident étant le 7700HQ), pour ne pas polluer les résultats par un CPU trop faible.""

Et vous avez omis de rappeler cet élément clé... Comme par hasard.

Un autre point est que quand l'on compare les cartes graphiques, on s’intéresse bien sur aux performances maximales atteignables. Une fois ce maximum atteint, vous pouvez améliorer tous les paramètres que vous voudrez (CPU plus rapide, plus de RAM, RAM plus rapide, plus et mieux de toute ce que vous voudrez), cela n'aura par définition aucun impact puisque le maximum aura déjà était atteint. C’est exactement ce qui est mesuré.

Vous qui dites qu'il faut parler des conditions de test, très bien, mais pourquoi ne pas avoir dans votre réponse initiale ou autre indiqué justement voilà l'écart entre une GTX 1070 et 1060 (par exemple) selon telles et telles conditions pour x jeux ou autre référentiel ? Plutôt que dire tout le temps, c'est impossible puis ça dépend de x et y et au final c’est impossible.

Vous ajoutez : "J'ai dis que macOS est plus lent pour les jeux. Ça ne veut pas forcément dire que cet écart est toujours important où gênant, surtout que ça peut énormément varier d'un jeu à l'autre... "

D’une part, vous n’avez jamais parlé de ces éléments importants initialement.

Parler d’un écart n’est pertinent que si celui-ci est significatif. Ne pas le quantifier ne sert donc à rien et est même dangereux car cela peut être trompeur. C'est évident.

Soit au départ vous considériez que macOS est plus lent et que cela est donc gênant (ce que tout le monde comprendrait de vos propos), mais maintenant, vous dites l’inverse ou en tout cas une conclusion fondamentalement différente, puisque tout dans coup, l’écart ne pas être gênant.

Soit votre propos initial impliquait simplement un écart (sans quantification), et dans ce cas, cela n’est pas utile et pertinent.

Vous vous considérez comme pédagogue : considérez-vous sérieusement qu’un pédagogue resterait vague et ambigu en omettant une information cruciale qui impacte la compréhension de ses propos ? Non bien sur.

N'auriez-du pas vous mentionner cette information capitale dès les début, surtout en tant que pédagogue ? (Ce qui aurait aussi changé vos conclusions et contredit bon nombre de vos affirmations ?)

Et pensez-vous vraiment qu’un pédagogue écrirez votre phrase “920 SP/120 TU/64 ROP” sans la moindre explication ? Et votre justification (on peut chercher / trouver sur Internet) est indigne d’un pédagogue (ou de n’importe qui qui prétend expliquer les choses).

Et s’il est possible de faire des recherches sur Google (j'ai bien vu que tel était votre approche), pourquoi alors donnez-vous ces détails techniques obscurs et en plus, sans copier coller les explications nécessaires ? Une fois de plus, c'est contradictoire. Soit on explique tout, soit pas, pas de mi mesure.

Et au passage et à nouveau, vous changez quelque peu ce que vous dites précédemment (vous n’avez pas écrit “SP TU RO” mais “1920 SP/120 TU/64 ROP“). Vous admettez donc implicitement que votre phrase d’origine est incompréhensible puisque vous dites vous même qu’il faut la modifier pour pouvoir trouver quelque chose sur Internet !

Concernant : "Donc on obtient les puissance brutes suivantes (les GFlops) …”

Vous mettez au final le chiffre clé auquel je faisais référence dès le départ et qui seul est en rapport avec le point (performance brute) que vous avez abordé.

Mais même là, vous avez omis un élément crucial : le chiffre de Gflops par exemple que vous donnez est incomplet tel quel et trompeur.

Et à nouveau vous n’expliquez pas : qu’est-ce que les Gflops et les autres xxx/s ? Il me semble que soit on explique, soit pas, pas de mi-mesure, surtout quand on s’estime pédagogue !

Mais passons. Plusieurs constations apparaissent :

1 ) Ne pensez-vous franchement pas que c’est ce que vous auriez du dire dès le départ puisque votre sujet était justement la comparaison de performance brute, au lieu de sortir des détails techniques autres ?

Si vous aviez dit telle carte a x Gflops et autres xxx/s, tel autre carte a tant, ce qui nous donne l’écart x de performance brute, cela aurait été pertinent. Mais cela n’a pas été fait.

2) Les seuls chiffres (SP / TU …) que vous avez citez au début interviennent-ils dans ce calcul d’écart de %. Absolument pas. A quoi cela sert-il de le savoir ? A part encombrer l’esprit de détails. C’est le problème et cela est mon point.

3) Le résultat que vous trouvez est aussi très trompeur pour un joueur, qui est le sujet. Une GTX 1070 est bien plus puissante qu’une RX 580. La RX 580 est plutôt l’équivalent d’une GTX 1060 6 Gb.

4) Un problème clé et qui ne fait confirmer mon point précédent (2), est que votre "donc" est fallacieux et/ou de très mauvaise foi :

Vous ne montrez pas du tout comment vous passez de "920 SP/120 TU/64 ROP à 1506-1683 MHz" à "xxx Gflops et autres xxx/s “. Vous pourriez tout aussi bien affirmer 2 + 2 = 4 donc 2 pommes de terre + 2 pommes de terre = 4 voitures, cela aurait autant de sens.

Et quand bien le passage de l'un à l'autre serait fait, cela n'aurait de toute façon aucune utilité car ce qui est demandé est la puissance brute et l’écart entre les cartes, pas ce qui génère la puissance.

Une fois de plus, vous êtes hors sujet.

Si on vous demande l'heure qui l'est, vous n'allez pas répondre en disant ma montre mécanique à x roues dentées dont voici la liste et le nombre de dents pour chacune et toute une série de détails techniques.

Ce n'est pas le sujet. Cela n’est pas pédagogue.

Si je vous ai demandé des précisions, c’est justement parce que vous étiez très vague, comme quand vous parlez maintenant de l’écart sous macOS qui n’est pas toujours important où gênant, et qui peut donc l’être. Bref, cela peut vouloir dire une chose et son contraire.

Et vous indiquez aussi : "C'est éventuellement envisageable avec des benchmarks théoriques, mais difficilement avec des tests pratiques, comme des jeux, "

C'est faux. Il suffit de changer les cartes graphiques sur le même ordi de jeux puissant (le CPU n'est plus un facteur limitant, aucun autre élément ne peut intervenir). C'est évident et c'est ce qui est fait depuis longtemps.

Il existe toujours et de toute façon une marge d'erreur dans la mesure de FPS, et au sein d'un même jeu, les FPS changent selon les scènes affichées. Il ne faut pas créer des faux problèmes.

"Je sais très bien à quoi ces 3 chiffres que j'avais donné correspondent. Tu ne me connais pas, je ne vois pas ce qui te permet d'affirmer ainsi que je ne maitrise pas ces informations (juste pour info, j'ai été rédacteur d'articles techniques sur deux gros sites francophones, dont un spécialisé dans le jeu vidéo)"

Désolé de l'affirmez à nouveau, mais vous ne comprenez pas ces chiffres pleinement selon moi (je ne prétends pas du tout que cela est mon cas).

Il est toujours possible d’avoir une compréhension très superficielle. Cela ne veut pas dire comprendre le sens plein et entier derrière ces notions.

La preuve ?

1) Votre explication est en français, les acronymes dans une autre langue.

2) Il vous a fallu du temps pour donner les Gflops et autres xxxx/s. Ce qui est pourtant le sujet que vous avez vous-même abordé, et que vous auriez du donner dès les départ.

3) Même ce chiffre de Gflops est comme vous le présentez incomplet et trompeur (vous avez oublié un autre élément clé).

3) Si on devait discuter en live (où vous ne pouvez pas prendre le temps de chercher sur Internet), vous ne pourriez pas répondre à mes questions.

Au final, il faut bien comprendre ce que l'on copie colle pour ne pas aboutir à des informations partielles, non pertinentes et trompeuses, et totalement hors sujet.

avatar SartMatt | 

"Mais 1) vous avez compris carte graphique dédiée de portable"
Encore une fois, tu te bases essentiellement sur une mauvaise compréhension de mes propos pour supposer que j'ai compris ceci ou cela. Ce qui est fondamentalement faux.

"Et vous continuez à défendre votre position en justifiant : "permettre d'évaluer à quoi on peut s'attendre en montant une carte " Si la carte n'existe pas en eGPU, comme vous l'admettez, vous ne pouvez pas la monter en eGPU."
L'idée est bien évidement d'évaluer à quoi on peut s'attendre avec une carte disponible en eGPU. Même si elle ne peut pas être testée en interne sur Mac, on peut quand même évaluer théoriquement la perte de performances liée à son usage en eGPU. Mais ça tu ne veux pas le comprendre...

"Vous ne montrez pas du tout comment vous passez de "920 SP/120 TU/64 ROP à 1506-1683 MHz" à "xxx Gflops et autres xxx/s “."
Je t'avais déjà donné cette information dans un message précédents (le 02/09 à 23h37) : les Gflops, c'est SP * 2 * fréquence, les GTexels/s c'est TU * fréquence, les GPixels/s c'est ROP * fréquence.
Je pensais que tu lisais mes messages avant d'y répondre, donc je n'ai pas jugé utile de répéter à nouveau ces formules.

"C'est faux. Il suffit de changer les cartes graphiques sur le même ordi de jeux puissant (le CPU n'est plus un facteur limitant, aucun autre élément ne peut intervenir). C'est évident et c'est ce qui est fait depuis longtemps."
Et pourtant, chaque fois qu'un nouveau CPU sort, on voit qu'il est un peu plus rapide que le précédent dans les jeux. Ce qui prouve que même avec le CPU le plus puissant disponible, les performances dans les jeux restent partiellement limitées par le CPU, et non pas exclusivement limitées par le GPU.

On l'a encore vu il y a quelques semaines avec la sortie du Core i7-7740K.

Prendre le GPU le plus puissant du marché pour comparer les cartes permet de minimiser l'influence du CPU sur les performances mesurées, mais en aucun cas de l'effacer complètement.

"Votre explication est en français, les acronymes dans une autre langue."
J'ai jamais vu un argument aussi stupide... Donc parce qu'on utilise des acronymes dans une autre langue, ça veut dire qu'on ne sait pas ce que c'est ? Du coup, si j'utilise ce même argument débile, je peux affirmer que tu ne sais pas ce que veulent dire CPU, GPU, eGPU, GFlops et autre FPS... Tous ces acronymes en anglais que tu utilises dans tes "explications" en français...

"Il vous a fallu du temps pour donner les Gflops et autres xxxx/s. Ce qui est pourtant le sujet que vous avez vous-même abordé, et que vous auriez du donner dès les départ."
Encore une explication complètement débile... Trouver les informations que j'ai données ne prend pas plus de temps que trouver les Gflops. Les Gflops, je ne les ai pas donné au début simplement parce que j'estimais pas ça pertinent dans le contexte. Pour montrer que deux GPU sont différents, il est bien plus pertinent de montrer les différences dans le nombre d'unités que les différences dans le nombre de Gflops (parce que deux GPU peuvent être différents et offrir exactement le même nombre de Gflops, alors qu'à l'inverse on peut avoir deux GPU identiques offrant des niveaux de Gflops différents... par exemple il y a quelques années les 8800 GTX et 8800 Ultra qui avaient strictement le même GPU, mais pas les mêmes performances).

Quand tu me les a demandés, je les ai données (et sans même les chercher, j'ai fait le calcul, puisque je sais comment le faire...).

"Même ce chiffre de Gflops est comme vous le présentez incomplet et trompeur "
C'est le chiffre. Un chiffre ne peut pas être incomplet. Et je ne vois pas en quoi il est trompeur. Il n'est pas forcément représentatif des performances réelles dans les jeux, mais ça ne rend pas le chiffre incomplet ou faux.

"3) Si on devait discuter en live (où vous ne pouvez pas prendre le temps de chercher sur Internet), vous ne pourriez pas répondre à mes questions."
Encore un argument d'une débilité sans nom. Tu ne me connais pas, je ne te connais pas... Mais l'aperçu que j'ai de tes connaissances me laisse peu de doute sur lequel serait largué le premier, quand je vois par exemple que tu es capable de présenter dans un message les GTX 1070 notebook comme identiques aux GTX 1070 desktop, puis quand je te dit qu'elles sont différentes, mais sans préciser l'écart de performances, de me dire (je paraphrase, citation non exacte) "mais je sais bien que les versions notebook sont moins performantes", alors qu'en fait le niveau de performances est très proches, ça en dit long...

J'arrête là, ma patience a beaucoup plus de limites que ta mauvaise foi. Les faits resteront : contrairement à toi, fte et moi avons répondu à la question posée.

avatar Marco787 | 

Je ne vous demande ni d'être patient ni vos détails techniques inutiles, hors sujet et mal expliqués.

Ce que je vous demande c'est de faire preuve d'un minimum de bon sens, logique et intelligence ! Et de répondre au sujet d'origine !

Ce qui est clairement impossible.

A nouveau, vous ne réfléchissez absolument pas, et vous sortez encore des totales inepties, et des affirmations gratuites.

"
Prendre le GPU le plus puissant du marché pour comparer les cartes permet de minimiser l'influence du CPU sur les performances mesurées, mais en aucun cas de l'effacer complètement.
"

Où sont vos preuves, aucune, comme toujours, que des affirmations gratuites !

Et vous ne pouvez pas pour la simple raison que c'est faux. Au delà d'un certain seuil, le processeur n'a plus d'influence. C'est évident. Il faut être totalement stupide et/ou de mauvaise fois comme vous pour prétendre le contraire.

Et quand bien même un écart existerait et une fois de plus, vous êtes non pertinent et vous oubliez l'essentiel ! Si l'écart est négligeable, parler d'un écart est totalement absurde ! Surtout pour une personne qui se vante d'être pédagogue !

Vous ne comprenez pas cette évidence ? C'est bien la preuve de votre manque total d'intelligence et de modestie.

Et vos arguments sont comme toujours idiots :

"
Tu ne me connais pas, je ne te connais pas... " Je n'ai pas besoin de vous connaitre : on a discuté longuement sur un sujet particulier et c'est suffisant pour émettre un jugement. Réfléchissez un peu pour une fois ! Je n'ai pas besoin de savoir d'autres choses !

C'est comme si vous alliez chez un médecin qui vous diagnostique un cancer, et vous lui dites : vous ne pouvez pas dire cela, vous ne me connaissez pas.

Réalisez-vous à quel point vous êtes encore et toujours limité mentalement ? (Non par définition, c'est le problème...)

Et si vous étiez si sûr de vous, vous seriez très content au contraire de discuter en live avec moi pour montrer que vous avez raison, vous qui adorer vous vanter et étaler votre "science". Mais vous ne le faites pas, comme par hasard.

Vous vous contredisez en disant que Mac est plus lent que PC pour les jeux au début, pour ensuite admettre que l'écart peut ne pas être significatif et qu'il est donc impossible de sérieusement parler d'une perte de performance en eGPU.

Mais au lieu d'admettre vos inepties et contradictions, vous préférez comme toujours vous réfutiez derrière des justifications absurdes.

Pas étonnant que vous soyez dans une telle situation !

Vous na'vez pas répondu à la question de départ !

L'une des preuves est que vous n'avez jamais reformulé le sujet de départ parce que si vous le faisiez, cela montrerait votre hors sujet. Les cartes graphiques mobiles n'ont jamais fait partie du sujet, et pourtant, vous les abordez.

Et vous dites que je me trompe, vous n'avez jamais que ma reformulation du sujet (cf. mes dernières réponses) était incorrecte, comme par hasard.

Et en plus, votre manière d'aborder le problème est comme toujours très limitée (vous ne parlez que de macOS, pas de Windows sous MacBook Pro, ce qui est franchement stupide concernant les jeux video !

Vous qui vous vantez d'avoir était "rédacteur d'articles techniques sur deux gros sites francophones, dont un spécialisé dans le jeu vidéo", comment pouvez-vous avoir l'esprit aussi restreint ???

Vous dites bien sur que vous avez raison (vous ne risquez d'admettre l'inverse), mais vous vous vantez aussi d'être pédagogue, alors que vous versez dans des détails techniques cryptiques, des pseudo explications qui s'étalent sur plusieurs réponses et êtes incapables de fournir des données concises et pertinentes.

avatar SartMatt | 

"Où sont vos preuves, aucune, comme toujours, que des affirmations gratuites !"
Faute de frappe, il fallait lire "prendre le CPU le plus puissant du marché".
Et pour preuve, va par exemple regarder le récent test du i7-7740K chez Hardware.fr : http://www.hardware.fr/articles/964-1/intel-core-i9-7900x-core-i7-7740x-test-deja-vus.html
On voit qu'il permet d'avoir des performances légèrement supérieures à celles du i7-7700K dans les jeux.
CQFD : tous les tests utilisant le CPU le i7-7700K (donc le plus puissant du marché pour les jeux jusqu'à la sortie du i7-7740K) n'avaient pas complètement effacé l'impact du CPU, puisqu'un nouveau CPU offre des performances supérieures.
Bien entendu, il est impossible de prouver qu'un CPU encore plus puissant que le i7-7740K offrirait des performances supérieures (faute de possibilité de tester et de savoir si dans les tests actuels il y a ou non des moments où le i7-7740K est limitant), mais il est également impossible de prouver le contraire... Tout ce qu'on peut dire, c'est que par expérience, ça c'est toujours passé comme ça : un CPU plus puissant augmente les performances en 3D avec les GPU haut de gamme.

" on a discuté longuement sur un sujet particulier et c'est suffisant pour émettre un jugement. Réfléchissez un peu pour une fois ! Je n'ai pas besoin de savoir d'autres choses !"
Quand on voit tes arguments du genre "tu utilises des acronymes en anglais, donc c'est que tu comprends pas", permet moi de douter de ta capacité à cerner le niveau de compréhension d'un sujet par ton interlocuteur... Le fait est que j'ai visiblement abordé des notions qui te dépassent largement, et plutôt que d'essayer de comprendre, tu préfères prétendre que c'est moi qui ne comprends rien...

"C'est comme si vous alliez chez un médecin qui vous diagnostique un cancer, et vous lui dites : vous ne pouvez pas dire cela, vous ne me connaissez pas."
Le médecin qui me diagnostique un cancer sans me connaître, effectivement, je le croirais pas... Avant de diagnostiquer un cancer, le médecin il fait des analyses relativement poussées, donc il connait son patient hein...

"Et si vous étiez si sûr de vous, vous seriez très content au contraire de discuter en live avec moi pour montrer que vous avez raison, vous qui adorer vous vanter et étaler votre "science". Mais vous ne le faites pas, comme par hasard."
M'as tu donné un moyen de discuter en live avec toi ? Non. Tu es juste un anonyme planqué sous un pseudo qui se permet d'insulter l'intelligence de ceux avec qui il n'est pas d'accord. C'est tout.

(oui, je suis aussi sous pseudo... sauf que mon pseudo est basé sur mon nom et mon prénom réel, et n'importe qui d'un minimum débrouillard et compétent trouve mon vrai nom puis mon CV en quelques clics en utilisant mon pseudo et un moteur de recherche)

"Les cartes graphiques mobiles n'ont jamais fait partie du sujet, et pourtant, vous les abordez."
J'ai abordé les cartes graphiques mobiles uniquement pour dire qu'il est impossible de faire une mesure de la perte de performances en eGPU avec un ordinateur portable, faute de pouvoir tester avec le même GPU en interne et en externe. Ensuite c'est toi qui, a proposé de faire des tests avec un portable doté d'une GTX 1070 et une GTX 1070 en eGPU. Mais bon, puisque c'est pas le sujet d'après toi, je suis ravi de t'apprendre que ton test que tu nous vantes tant est hors sujet...

"Vous vous contredisez en disant que Mac est plus lent que PC pour les jeux au début, pour ensuite admettre que l'écart peut ne pas être significatif et qu'il est donc impossible de sérieusement parler d'une perte de performance en eGPU."
Encore une fois, tu comprends mal mes propose et en tire les conclusions foireuses qui t'arrangent. "Le mac est plus lent que le PC", c'est général. C'est une tendance globale. Ça ne contredit en aucun cas le fait que dans certains cas, cet écart de performances puisse ne pas être gênant à l'usage... Je te l'ai pourtant bien expliqué, mais visiblement, tu comprends pas... Si tu as par exemple un écran qui ne rafraichit pas plus de 60 fois par seconde, le jeu qui tourne à 100 FPS sous macOS et 150 sous Windows, il est bel et bien plus lent sur Mac. Sans pour autant que ça soit gênant à l'usage sur ce jeu en particulier... Mais sur un autre qui tourne à 70 sous Windows et 50 sous macOS, là ça devient gênant.

"comment pouvez-vous avoir l'esprit aussi restreint ???"
Je suis ouvert face à des gens ouverts et tenant des propos censés et cohérents. Un mec qui me traite quasiment de con (et qui insiste lourdement là dessus d'ailleurs, ça fait plusieurs posts de suite que tu n'apportes plus le moindre argument de fond, contrairement à moi, tout ce que tu fais, c'est répéter que je comprends rien...) parce qu'il a pas compris mes propos et qu'il est pas d'accord avec moi, forcément, je vais pas rester ouvert bien longtemps avec lui...

avatar fte | 

@SartMatt

"Un mec qui me traite quasiment de con"

Je suis stupéfait que tu n’aies pas encore envoyé ce personnage se faire foutre !

Je pense que tu devrais cependant, un tel niveau de toxicité ne devrait pas être toléré. Et encore, je ne lis que les morceaux choisis cités dans tes messages, je ne veux pas imaginer à quoi ressemble ce qui n’est pas cité.

avatar SartMatt | 

J'ai le tort de m'apitoyer facilement et de me dire que personne n'est jamais complètement irrécupérable... Et de toujours me défendre quand on m'insulte.

avatar Marco787 | 

@ StarMatt

Vous me reprochez de vous insulter, mais vous oubliez que vous avait utilisé avant ma réponse qui vous fait réagir et maintes fois des termes comme débile et autre !

Vous récoltez ce que vous avez semé. Alors arrêtez d'être de mauvaise fois et contradictoire, même s'il est clair que cela semble impossible.

Par, ailleurs, je constate qu'une fois de plus, vous êtes totalement contradictoire : vous aviez dit "J'arrête là", pour ensuite faire l'inverse, tout en faisant une fois de plus des réponses fleuves, ce qui est l'inverse du pédagogue que vous vous vantez d'être.

Et ce n'est pas votre seule contradiction : vous qui disiez par exemple qu'il n'était pas possible de comparer la performance de cartes sans préciser le contexte et les paramètres, il est curieux que vous puissiez répondre à la question de départ qui ne précise justement rien (ni le CPU, ni la carte, ni le jeux, ni la résolution, ni les paramètres, rien) ! Et cela ne vous a pas empêché de dire que Mac était plus lent.

La vérité est que vous refusez de parler du sujet de base et que vous vous entêtez à camper sur vos positions de départ pour ne surtout pas admettre que vous avez tort, être contradictoire et tenez des propos hors sujet et non pertinents.

Comment par exemple pouvez-vous encore et toujours parler d'un écart même s'il est totalement insignifiant ? C'est un manque total de pertinence, vous êtes le seul à ne pas le voir. C'est triste.

avatar SartMatt | 

"Vous me reprochez de vous insulter, mais vous oubliez que vous avait utilisé avant ma réponse qui vous fait réagir et maintes fois des termes comme débile et autre !"
Je n'ai utilisé ces termes que pour qualifier tes arguments. Pas pour te qualifier toi, même si c'est pas l'envie qui me manque.

Et je n'ai utilisé seulement après que tu ais prétendu que je ne comprends rien à ce que j'écris, essayant de me faire passer pour un abruti.

" vous aviez dit "J'arrête là", pour ensuite faire l'inverse"
Parce que tu as continué à tenir des propos insultant à mon égard, donc je continue à me défendre.

"vous qui disiez par exemple qu'il n'était pas possible de comparer la performance de cartes sans préciser le contexte et les paramètres, il est curieux que vous puissiez répondre à la question de départ qui ne précise justement rien (ni le CPU, ni la carte, ni le jeux, ni la résolution, ni les paramètres, rien) ! Et cela ne vous a pas empêché de dire que Mac était plus lent."
Si tu avais un minimum compris ce que j'explique... J'ai dit qu'il n'est pas possible de répondre précisément sans contexte quand tu m'as demandé "combien de FPS". Parce que les FPS, c'est une valeur pratique, qui ne peut être obtenue que par la mesure en pratique dans un contexte donné.

Par contre, dire que globalement les performances 3D sous macOS sont moindre à cause des drivers moins performants, que du coup, la consommation de bande passante PCI-Express est moindre, et que du coup, la perte de performance en bridant cette bande passante devrait être moindre, c'est du théorique, pas des valeurs précises pratiques. Donc pas besoin d'un contexte précis, une théorie peut être valable dans plein de contexte (l'écart réel ne sera pas toujours le même, mais la tendance générale théorique, elle, sera bien là).

Je peux te dire que les performances dans les jeux d'un i7-7700K sont supérieures à celles d'un i3-7100 de manière théorique, sans avoir plus d'infos sur le contexte (on sous entend quand même dans ce cas que c'est en gardant la même configuration pour le reste de la machine hein). Mais si tu me demandes combien il y a de FPS d'écart entre un i7-7700K et un i3-7100, là je peux pas te répondre. Il faudrait un contexte précis dans la question (dans quel jeu, dans quel scène du jeu, avec quelle carte graphique, avec quels réglages graphiques...) et une mesure dans ce contexte. Il n'est pas possible de répondre autrement à cette question. Ce qui n'invalide pas pour autant la réponse théorique initiale.

Mais peut-être n'arrives tu pas à prendre suffisamment de recul pour atteindre le niveau d'abstraction nécessaire à un raisonnement théorique...

avatar Marco787 | 

@ fte,

Vous êtes de mauvaise fois et contradictoire,

Votre ami StarMatt ne s'est pas gêné pour dire débile et idiot et autre terme identique en me répondant, et vous n'en parlez et me rapprochez ensuite d'utiliser les mêmes termes !

avatar Marco787 | 

@ FTE

Ce qui est vraiment toxique ce sont des gens comme vous au raisonnement hors sujet et trompeur et qui persistent à refuser à l'admettre.

Je constate que nulle part, vous ne parlez de la substance et montrez que mon analyse de votre position est erronée. Vous ne répondez pas sur le fonds, uniquement sur des éléments accessoires.

avatar Marco787 | 

@ FTE

Vous vous permettez de parler de moi en termes peu élogieux et en plus sans même vous adresser à moi directement, m'ignorant.

La moindre des politesses serait de vous addresser à moi en direct.

Et ensuite vous faites semblant d'être offusqué ?

Et sur le fonds, qui importe le plus, plusieurs de vos propos sont erronés (comme indiqué ; c'est ce qui vous énerve en vrai).

Par exemple, vous parlez du " manque d’expérience d’Apple en matière de GPUs."

Les drivers des cartes Nvidia et AMD sont fournis par Nvidia et AMD, pas par Apple. Ce sont les fabricants de carte graphique qui écrivent les drivers. (Au passage, votre ami StarMatt le confirme. Vous ne citez ses propos que quand cela ne vous contredit pas...)

Et considérez comme vous le faites qu' "Il serait tellement plus simple d’avoir une putain de machine avec un putain de port PCIe disponible, plutôt que des solutions batardes destinées aux joueurs sur notebook" est doublement erroné :

1) il existe des notebooks avec de tels ports.

2) ces eGPU n'ont pas été créées uniquement pour les joueurs.

Sans comptant votre usage du terme "putain", qui comme tout le monde le sait, est très respectueux et recherché. Quel beau langage que le votre...

(Et je passe le reste pour faire une réponse courte.)

avatar SartMatt | 

"Par exemple, vous parlez du " manque d’expérience d’Apple en matière de GPUs."

Les drivers des cartes Nvidia et AMD sont fournis par Nvidia et AMD, pas par Apple. Ce sont les fabricants de carte graphique qui écrivent les drivers. (Au passage, votre ami StarMatt le confirme. Vous ne citez ses propos que quand cela ne vous contredit pas...)"

Et pourtant, il n'a pas tort, et je ne l'ai pas contredit, contrairement à ce que tu sembles croire ! Il serait temps que tu cesses d'interpréter à ta sauce mes propos, parce que encore une fois, on ne peut que constater ta connaissance extrêmement superficielle du sujet.

Le fait que les drivers graphiques soient à la charge des fabricants de GPU ne dispense en effet en aucun cas l'éditeur de l'OS de faire sa part du boulot, part qui nécessite aussi des efforts et une certaine expérience pour être réalisée convenablement, et qui a une influence directe sur les performances.

Tu oublies (ou ignores ?) en effet un point important : un driver de GPU, ça tourne pris en sandwich entre deux composants de l'OS. Du côté bas, le framework de drivers de l'OS, qui fait l'interface entre les drivers et le noyau, du côté haut les API 3D de l'OS, qui font l'interface entre les drivers et les applications 3D.

Côté Windows, Microsoft a une maîtrise avancée et historique de ces deux éléments, particulièrement dans le domaine du jeu, et fournit depuis des décennies une API 3D (Direct3D) qui est devenue la référence absolue pour les jeux, au point que les GPU sont même en partie conçus en fonction des évolutions de cette API (plus précisément, Microsoft travaille avec les deux fabricants de GPU très en amont, pour spécifier les nouvelles versions de Direct3D).

Côté macOS, je ne sais pas si c'est aussi avancé côté bas (macOS a-t-il une interface noyau spécifiquement optimisée pour les drivers graphiques, ou bien y a-t-il juste une interface générique commune à tous les types de drivers ?). Mais côté haut par contre, c'est à la traîne. Apple s'est longtemps appuyée essentiellement une une API multiplateforme (OpenGL), dont elle ne maîtrise pas totalement les évolutions, et qui plus est, sans faire de grands efforts pour supporter les dernières versions (et ce, encore récemment, cf cet article d'il y a un peu plus d'un an, qui dit que OpenGL 4.2 n'est pas encore supporté complètement : https://www.macg.co/os-x/2016/06/macos-sierra-opengl-fait-du-surplace-94683 ... pour information, OpenGL 4.2 est sorti en 2011...). Et ce retard est tout sauf anecdotique, parce que l'absence de support de certaines fonctions avancées récentes permet de limiter la casse niveau performances, mais au détriment de la qualité d'image, ce qui fausse au passage la comparaison des performances.

Depuis quelques années, elle a sa propre API, plus bas niveau qu'OpenGL (donc qui vient du coup en complément, pas en remplacement), Metal. Il y a des progrès, mais il reste du travail, surtout que les développeurs de jeux n'ont pas forcément envie de faire l'effort de porter leurs jeux sur cette API propriétaire, utilisable uniquement sur les OS Apple.

Donc si les drivers 3D sous macOS sont moins performants que sous Windows, c'est bien entendu en partie à cause de ceux qui écrivent ces drivers, mais c'est aussi à cause d'Apple, qui ne leur facilite pas la tâche autant que le fait Microsoft, et qui laisse supposer que les performances 3D sur Mac sont le cadet de ses soucis (Metal sur Mac, c'est presque un effet de bord, à la base c'est pour améliorer les performances 3D sous iOS qu'Apple l'a développé).

avatar fte | 

@SartMatt

"Les drivers"

Pour préciser mon propos, je ne parlais pas des drivers spécifiquement, mais des GPUs et leurs usages en général.

Apple n’a jamais proposé de solutions GPU performantes, pas même avec le Mac Pro 2013 et ses cartes « pro » moyennes à leur sortie déjà, et nous sommes H2 2017. Pas de solutions matérielles performantes, pas de solutions logicielles performantes (l’état d’OpenGL, d’OpenCL, et l’état discutable des drivers dont Apple n’a que faire visiblement), etc.

L’expérience d’Apple en matière de GPUs au jour d’aujourd’hui est mobile, presque exclusivement.

Quelques équipes spécialisées ont de l’expérience bien entendu, pour Final Cut par exemple, mais cette expérience profite à Final Cut et non aux solutions Apple en général. Ainsi ces équipes doivent bosser avec des cartes pro médiocres de 2013 comme vaisseau amiral. Des notebooks ont des GPUs plus puissants que ça, et avec de bons drivers et librairies, eux.

avatar SartMatt | 

"L’expérience d’Apple en matière de GPUs au jour d’aujourd’hui est mobile, presque exclusivement."

Yep, c'est exactement ça. C'est comme pour Metal, développé en premier lieu pour iOS.

Bon en même temps, c'est compréhensible vue la part du CA d'Apple qui vient du mobile. Mais au prix des Mac, c'est quand même un peu se foutre de la gueule du client...

avatar Marco787 | 

@ StarMatt

"Je vois surtout qu'après plusieurs relances successive de ma part, tu ne m'as toujours pas donné de moyen de me contacte"

Je n'ai jamais vu vos offres ou relances. Où sont-elles au juste (pouvez vous coper - coller) ?

Si vous l'avez écrit en vrai et que je n'ai pas répondu, désolé, mais comme vos réponses sont trop longues et avec de nombreux éléments incohérents et vagues, et que vous ne répondez aux questions que j'ai posé, il est bien normal que je ne les lise pas en entier.

Vous qui vous vantez d'être pédagogue, vous devriez savoir que des réponses trop longues et allant dans toutes les directions ont peut de chances d'être lues (surtout au vu du contexte).

D'ailleurs, dans votre dernière réponse, vous prenez bien soin d'éviter le fonds, et vous agrippez à un seul élément.

Par ailleurs, vous parlez de mon raisonnement "con", je vous cite, pour ensuite me reprochez de vous avoir insulté. A nouveau, c'est le comble.

Et vous ne précisez pas où sont mes propos insultant, comme par hasard. Où sont-ils au juste ?

(Votre paraphrase serait plus juste si vous inversiez les noms.)

Je constate à nouveau que vous aviez qui que vous n'allez plus me répondre, pour ensuite faire des réponses trop longues...

Je ne vais pas répondre sur chacun de vos points, mais simplement vous poser une question courte :

Vous avez indiquez à la fin que les jeux sous macOS n'étaient pas nécessairement plus lents que sous Windows (= pas toujours gênant pour le joueur) . Au début, vous avez simplement dit c'est plus lent.

Est-ce la même chose qu'un lecteur et joueur va conclure de vos deux versions ?

Cela est-il pertinent de parler d'un écart s'il est négligeable ?

La dernière précision n'aurait-elle pas du faire parti de votre raisonnement de début ?

(Merci de répondre aux questions de manière concise, = oui / non)

avatar SartMatt | 

"Je n'ai jamais vu vos offres ou relances. Où sont-elles au juste (pouvez vous coper - coller) ?"
En plus faut te mâcher le travail ? Je prends la peine de lire tes messages avant d'y répondre. Merci de faire de même. Tu as répondu aux messages contenant ces relances, en en citant certains points, je considère donc que tu es censé avoir lu ces messages (et il y en a même un où tu as cité un de ces relances !). Si ce n'est pas le cas, je t'invite à relire.

"Par ailleurs, vous parlez de mon raisonnement "con", je vous cite, pour ensuite me reprochez de vous avoir insulté. A nouveau, c'est le comble."
D'abord, c'est ton raisonnement que je qualifie de con. Pas toi.

Ensuite, n'inverse pas la chronologie. Quand bien même ce "con" s'adresserait directement à toi, avec ce que tu m'as mis sur la gueule AVANT, j'aurais pas le droit de te rendre la pareil ? Désolé, on ne m'a pas éduqué en bon chrétien, quand on me met une baffe à gauche, je tends pas la joue droite.

Tous les messages où j'ai qualifié tes raisonnements ou tes arguments de stupides, débiles, cons, etc... c'était APRÈS que tu ais tenu des propos insultants à mon égard. Pas avant.

"Et vous ne précisez pas où sont mes propos insultant, comme par hasard. Où sont-ils au juste ?"
Toutes les fois où tu m'accuses de ne pas comprendre mes propres propos, de faire des copier-coller de ce que je trouve sur Internet. C'est insultant. Parce que je fait l'effort d'expliquer, d'argumenter, et derrière un mec qui n'a rien compris à ce que j'ai dit inverse les rôles et prétends que je suis incapable de comprendre ce que j'ai moi même écrit...

Ex : " un joueur qui lirait votre phrase "[...] 1070 de bureau a 1920 SP/120 TU/64 ROP " la comprendrez ? (Vous même ne la comprenez pas réellement je pense"
"Il est facile de copier coller des chiffres de sites, encore faut-il copier ce qui est pertinent. Ce qui montre bien que vous ne comprenez pas vraiment de quoi il s'agit, sinon, vous auriez mis cet élément en premier."
"votre phrase était incompréhensible pour quasiment tout le monde -montrez votre la, vous verrez-, que vous ne savez pas en réalité à quoi ils correspondent (peu de personnes le savent...)"
Et enfin, cet argument à deux balles, censé prouver que je ne sais pas de quoi je parle : "Votre explication est en français, les acronymes dans une autre langue.". C'est suite à ça que j'ai pour la première fois qualifié tes propos de débiles. Parce que oui, je persiste, considérer que quelqu'un ne sait pas de quoi il parle parce qu'il utilise des acronymes en anglais dans des texte en français, c'est d'une débilité sans nom. Tiens, juste pour rire, va lire les articles écrits par Damien Triolet au sujet des cartes graphiques sur Hardware.fr. Tu y verras plein d'acronymes en anglais... Et s'il y a bien une personne dont on ne peut pas dire qu'il ne domine pas le sujet quand il parle de cartes graphiques, c'est bien Damien. En quelques années, il est devenu LA référence absolue dans ce domaine dans la presse francophone. À tel point qu'il a fini par quitter le journalisme pour aller bosser dans la division Radeon d'AMD. Mais bon, peut-être devrais tu aller expliquer à AMD qu'ils ont fait un mauvais choix, puisque les acronymes utilisés par Tridam prouvent qu'il ne connait rien au sujet ^^

"(Votre paraphrase serait plus juste si vous inversiez les noms.)"
Elle serait totalement fausse si j'inversai les noms. C'est bien toi qui en premier a proposé de discuter en live, mais sans jamais me donner de moyen de le faire, malgré plusieurs relance. Et toujours pas d'ailleurs. Je t'ai aussi expliqué comment tu pouvais aisément trouver mon vrai nom et mon numéro de téléphone à partir de mon pseudo. J'ai donc fait tout le nécessaire pour qu'on puisse avoir cette conversation en live que tu réclames. Mais tu te défausses.

"Vous avez indiquez à la fin que les jeux sous macOS n'étaient pas nécessairement plus lents que sous Windows (= pas toujours gênant pour le joueur)"
Alors déjà, ce ne sont pas "les" jeux sous macOS qui ne sont pas nécessairement plus lents que sous Windows. Ce sont CERTAINS jeux.
Ensuite, je le répète une nouvelle fois : "pas toujours gênant" n'est pas "égale" à "pas nécessairement plus lent". Un jeu peut être plus lent sans que ça soit gênant.

"Est-ce la même chose qu'un lecteur et joueur va conclure de vos deux versions ?"
Un lecteur normalement intelligent, oui. Il comprend que l'écart de vitesse peut varier d'un jeu à l'autre et qu'un même écart de vitesse n'est pas forcément toujours gênant selon le type de jeu, selon le niveau du joueur, etc...

"(Merci de répondre aux questions de manière concise, = oui / non)"
Donc en fait, j'ai même plus le droit d'argumenter ?
Et si tu veux que je réponde par oui/non, faudrait déjà poser des questions auxquelles il est possible de répondre par oui/non. Ce n'est pas le cas des questions que tu poses, car déjà, elles sont fausses dans leur formulation, ce qui impose de les corriger, et ensuite, parce que ce ne sont pas des questions suffisamment simples pour qu'on puisse se contenter d'y répondre par oui ou par non.

En plus, t'es rigolo quand même à me demander du oui/non maintenant, alors que plus haut, pour des choses pourtant évidentes où je me suis exprimé de façon concises (comme le fait que même avec le plus puissant des CPU disponibles aujourd'hui, on ne peut pas isoler complètement les performances des cartes graphiques), ta première réaction est "prouvez-le", m'appelant donc à donner plus de détails (je cite : "Où sont vos preuves, aucune, comme toujours, que des affirmations gratuites")... Et maintenant, tu voudrais juste des oui/non ? Juste pour pouvoir encore prétendre que je fais des affirmations gratuites ?

avatar Marco787 | 

@ SartMatt

Comme toujours, vous êtes non pertinent et vous refusez d'admettre vos erreurs.

Vous avez dit au début (je vous le rappelle) qu'il y avait un écart de performance, et vous persistez à l'affirmer jusqu'à maintenant, même si l'écart peut se révéler dans la réalité et comme vous le dites à la fin non gênant pour un joueur.

Mais si l'écart n'est pas gênant, pourquoi en parlez-vous ???

La seule explication : vous êtes totalement limité, non pédagogue et refusez d'admettre l'ineptie de votre approche. Point.

avatar SartMatt | 

C'est pas possible là, tu fais vraiment exprès de pas comprendre...
J'ai dit qu'il peut ne pas être gênant DANS CERTAINS CAS. Ça ne veut pas dire qu'il ne sera jamais gênant.

Prends une voiture avec exactement le même matériel, mais dont l'électronique bride l'une à 110 km/h, et l'autre à 130. Dans certains cas, l'écarte entre les deux n'est pas gênant (sur toute route où la limitation de vitesse est <= 110 km/h), dans d'autres cas, il est gênant (sur toute route où la limitation de vitesse est > 110 km/h).

Typiquement, avec de vieux jeux, qui tournent très vite sur le matériel actuel, l'écart ne sera pas gênant. Avec les derniers jeux AAA aux graphismes ultra travaillés, il pourra être gênant.

Et au fait, tu ne m'as toujours pas donné moyen de te contacter en live... Tu bottes en touche ?

Allez, je te lance un petit défi. En partant de la page d'accueil de Google, tu peux trouver mon numéro de téléphone en tapant 12 touches de ton clavier (dont mon pseudo) puis un clic (à ce stade, tu as mon nom et mon prénom sans même quitter la page de résultat de Google) puis en tapant 15 autres touches dans la barre de recherche (mon nom et mon prénom), puis 2 clics. Si j'y arrive, con comme je suis, ça devrait être facile pour toi. Tu peux m'appeler ce soir à partir de 18h30.

Pages

CONNEXION UTILISATEUR