AMD met de la 3D V-Cache dans un CPU de portable, un vrai concurrent des M2 Max

Pierre Dandumont |

AMD vient d'annoncer le Ryzen 9 7945HX3D1, un processeur pour les PC portables très haut de gamme. Il intègre en effet de la mémoire cache 3D V-Cache, une technique qui permet d'améliorer très nettement les performances dans les jeux.

AMD annonce 144 Mo de cache, soit 128 Mo de cache de niveau 3 et 16 Mo de cache de niveau 2.

La mémoire 3D V-Cache est une technologie qu'AMD a pour le moment employée uniquement dans quelques processeurs pour les joueurs et uniquement dans des puces dites desktop, c'est-à-dire qui visent les PC fixes. Elle consiste à placer une puce de 64 Mo de mémoire cache de niveau 3 directement au-dessus d'un des chiplets du processeur, pour augmenter la capacité totale. Dans le Ryzen 9 7945HX3D, elle passe de 64 Mo (dans le Ryzen 9 7945H)à 128 Mo au total.

AMD gagne la palme des CPU les plus rapides dans les jeux avec les Ryzen "3D"

AMD gagne la palme des CPU les plus rapides dans les jeux avec les Ryzen "3D"

Pour bien comprendre la manœuvre, il faut expliquer le principe des chiplets : les Ryzen d'AMD sont des puces modulaires. Le CPU se compose en effet de plusieurs petits composants, les chiplets, ce qui permet de réduire les coûts de production tout en segmentant plus facilement la gamme. Un Ryzen 9 comme celui-ci contient donc 16 cœurs au total, sous la forme de deux chiplets comprenant chacun 8 cœurs et 32 Mo de mémoire cache. Un troisième chiplets va gérer la RAM mais aussi la partie graphique, qui intègre deux unités RDNA 2. Ce GPU intégré a peu d'intérêt dans le cas du Ryzen 9 : la puissance de calcul est très faible et il sert essentiellement à afficher l'OS et décoder de la vidéo. Dans la pratique, les PC portables équipés d'un Ryzen 9 intègrent habituellement une carte graphique dédiée, bien plus puissante.

La mémoire cache se place au-dessus de la puce.

Nous venons de le voir, le CPU contient donc deux chiplets pour les cœurs, et l'un d'entre eux est relié à la mémoire 3D V-Cache. Pour éviter les soucis avec cette configuration asymétrique — huit cœurs disposent de 96 Mo de cache, les huit autres de 32 Mo —, AMD propose des outils qui optimisent la gestion des threads et des applications. Pour le reste, le processeur a une fréquence maximale de 5,4 GHz et une fréquence de base un peu inférieure à celle de la version classique (2,3 GHz contre 2,5 GHz). Dans la pratique, AMD annonce des gains de 11 à 23 % en fonction de la limite de consommation.

Des performances élevées, comme la consommation

Le Ryzen 9 7945HX3D devrait être plus rapide qu'une puce Apple M2 Max, tant grâce à sa mémoire cache que son nombre de cœurs (16 cœurs, 32 threads) et sa fréquence maximale. Mais les performances ont un coût… énergétique. En effet, le processeur doit disposer d'une bonne enveloppe thermique pour que l'utilisateur puisse profiter de sa substantifique moelle. Et cette enveloppe va dépendre en partie du fabricant du PC. AMD laisse en effet un peu de latitude aux intégrateurs, qui peuvent choisir le TDP — en simplifiant, la consommation moyenne — en fonction du système de refroidissement. Elle est annoncée comme étant de 55+ W, ce qui est assez vague, mais la documentation d'AMD montre des exemples avec un CPU limité à 40 W et d'autres à 70 W.

Des performances élevées pour les joueurs.

Il faut enfin noter que la mémoire 3D V-Cache permet paradoxalement de meilleurs gains avec un TDP limité : elle a plus d'influence sur les performances quand le CPU est limité en fréquence par son enveloppe thermique que quand la bride est lâchée. Enfin, comme avec les autres processeurs de ce type, certaines applications professionnelles sont encore une fois paradoxalement plus rapides sur la version classique : la mémoire peut limiter la fréquence maximale, et certaines applications préfèrent la fréquence à la mémoire. Mais dans les jeux, les gains de la mémoire 3D V-Cache sont généralement importants.

Reste la question du prix, car si la puce est probablement plus rapide que le M2 Max d'Apple, les PC portables équipés risquent d'être particulièrement onéreux. Comme ils visent les joueurs, les premiers modèles disponibles comme l'Asus Rog Strix Scar 17 repéré par Les Numeriques devraient être vendus entre 3 400 et 3 700 €. Pour ce prix, vous aurez évidemment la version mobile de la GeForce RTX 4090, elle aussi très nettement plus puissante que la partie graphique des M2 Max d'Apple.


  1. La personne qui détermine les noms n'a pas encore été licenciée.  ↩︎

Tags
avatar redchou | 

Du coup, si à ce prix, on a ce processeur et une RTX4090, même en version mobile, la solution AMD explose littéralement un M2 Max… 🤔

avatar fousfous | 

@redchou

Et la consommation est aussi explosé!

avatar Dimemas | 

sauf que .. à part chez les macuser, tout le monde s'en fiche royalement !
Et lorsque je sollicite mon MBP 14 en usage réel, je fais rarement plus que 6-7h avec ;)

avatar fousfous | 

@Dimemas

Sachant que la batterie Max que tu peux mettre sur un ordinateur portable est de 100 Wh, la consommation n'est pas qu'un truc de macuser.
Sur un ordinateur fixe on peut moins s'en inquiéter (quoi que quand je vois les alims de 1300W, je me dis que l'été y a pas intérêt de jouer...)

avatar jackhal | 

@Dimemas "sauf que .. à part chez les macuser, tout le monde s'en fiche royalement !"
Merci pour cette vérité vraie sortie de ton chapeau.
https://www.digitalcitizen.life/what-matters-most-to-people-when-choosing-new-laptop/

avatar Dimemas | 

Il est grand alors mon chapeau.
Tu vas ailleurs que sur macg ?
Sort dans le monde extérieur et tu verras.

Le monde pc est largement au dessus de 6h d’autonomie depuis longtemps
Entre 10 et 14-16h, les utilisateurs pc préfèrent un pc plus puissant qui fait 10h d’autonomie ;)

avatar jackhal | 

Alors d'une je parlais de l'intérêt des acheteurs pour l'autonomie, et de deux, le genre de PC puissants-gamers sont toujours dans les 6h d'autonomie en utilisation normale (et généralement moins de deux heures avec un jeu gourmand).

Le Asus Rog Strix Scar 17 dont il est question dans l'article, en version actuelle, a une autonomie de 2h40 en simple lecture de vidéo Netflix avec une luminosité de 200 cd/m2.
https://www.lesnumeriques.com/ordinateur-portable/asus-rog-strix-g17-2023-p72409/test.html
Va voir la section autonomie, il y a d'autres valeurs de comparaison.

Tu en as aussi ici :
https://www.lesnumeriques.com/ordinateur-portable/asus-asus-tuf-a15-fa507-2023-p72559/test.html#anchor-review-chap-mobilite-autonomie

Oui, il y a des PC qui tiennent longtemps, mais il y a aussi encore des des PC performants comme celui-ci, testé ce mois-ci, et qui tient 4h en simple lecture Netflix.
https://www.lesnumeriques.com/ordinateur-portable/msi-stealth-14-studio-p73668/test.html#anchor-review-chap-mobilite-autonomie

avatar Adodane | 

@jackhal

Il y a clairement un problème avec le test d'autonomie en lecture Netflix des Numériques.
Ça ne correspond pas du tout aux autres pc du même type ni aux autres reviews.

avatar jackhal | 

MSI Stealth 14 studio : « During our in-house battery test (continuous web surfing over Wi-Fi at 150 nits), the Stealth lasted 3 hours and 17 minutes »
https://www.laptopmag.com/reviews/msi-stealth-14-studio-review

Asus Rog… 4h21 en surf continu à 150 nits :
https://www.tomsguide.com/reviews/asus-rog-strix-scar-17

MSI Raider GE68HX : 3h24 pour les numériques, moins de trois heures pour https://www-xgn-nl.translate.goog/review/msi-raider-ge68hx-review?_x_tr_sl=NL&_x_tr_tl=EN&_x_tr_hl=EN

Après, j’ai vu d’autres protocoles… Par exemple, chez PCMag ils font des tests wifi coupé, écran à 50% (quelles que soient ses caractéristiques), et en lisant une vidéo 720p en local. Ça ne me semble pas être un super test, mais ça reflète peut-être mieux l’utilisation de certaines personnes.

avatar Dimemas | 

c'est marrant de montrer les tests des PC gamers... XD
qui sont censés être utilisés sur secteur ! c'est même clairement assumé

après tu joue avec une puce M pro ou max, tu verras l'autonomie fondre aussi hein !

avatar redchou | 

@fousfous

A voir dans quelle proportion, mais le M2 Max ne consomme pas 5W non plus…
Il y a toujours la problématique d’une intégration moindre que chez Apple et de la finesse de gravure un poil moins sophistiqué, mais je trouve cela quand même vraiment pas mal, je trouvais déjà le petit Ryzen Z1 impressionnant, réponse avec les tests et les calculs puissance/consommation qui en découleront.

avatar Gerrer | 

@redchou

En attendant , ça restent des processeurs exceptionnels tout les 2. Rare sont ceux qui vont pouvoir atteindre leurs limites respectifs… ça reste des processeurs d’exception réservés à un usage bien particulier 😉👍

avatar debione | 

@Gerrer:

Un simple encodage vidéo, si le soft est bien fait, met à genoux en quelques secondes (s'entend utilisent les capacités maximum) n'importe quel proc de n'importe quelle marque.
Ceci est valable aussi pour la compilation de code, pour le rendu en musique etc etc...

"ça reste des processeurs d’exception réservés à un usage bien particulier"
Pas UN mais une multitude d'usages... et ne sont en tout cas pas des "processeurs d'exceptions", ce sont processeurs lambdas.

Après, la plupart des gens se contenterait d'un i7 de 2015, votre phrase devrait plutôt être "c'est des processeurs puissants pouvant servir à une certaine quantité de gens mais pas la majorité"

avatar Gerrer | 

@debione

des processeurs d’exceptions, ça n’existe pas ? « Lambda » ça veux dire quoi ? Que se sont des processeurs banales ? Facile d’utilisation ? Que ça veux dire que c’est ce qui correspond le mieux aux maximum de personne ? Que ce sont des processeurs bas de gamme ou tout juste au niveau ? Enfaite si je comprend bien , si on utilise a 100% les capacités du proc de n’importe quelle marque, il es vite mort quoi… c’est bien ça ? Pourquoi ? Pour une question de chauffe ? Ou bien car ce n’es pas prévu pour ça ?

avatar debione | 

@Gerrer:
"Car des processeurs d’exceptions, ça n’existe pas ?"
Si cela existe, mais ils ne sont pas grand public (des procs développé spécialement pour des usages très précis), ici les modèles sont grands publics, c'est certes les procs les plus puissants de ces marques respectives, mais n'en fait pas des "modèles d'exceptions".
Ne pas confondre exception(nel) avec le meilleur de la gamme actuel. Une exception est une rareté, ici, dès la sortie des prochains procs ils seront...

"De quel encodage vidéo parle-tu ? "
Genre Handbrake

"« Lambda » ça veux dire quoi ?"
Commun.
La technologie embarquée sur un M2 Max c'est juste un M2 collé à un autre M2...
Faire un SLi n'a jamais fait d'une carte Nvidia une carte d'exception.

Juste une question de vocabulaire en fait, car dans ce que je comprends de votre pensée, je suis assez d'accord avec vous.

avatar Gerrer | 

@debione

D’accord sur le fait que ce que les 2 fabriquant sortent des modèles de processeurs très bons. Après ça reste (pour moi) des bijoux de technologie quand même , même si c’est destiné au grand public. Après ce n’est pas fait pour le même usages que les proc spéciaux qui eux sont avant tout fait pour une seule et même tache. Mais c’est déjà très impressionnant ce qu’ils arrivent à faire actuellement. Le m2 reste un excellent processeur, je n’ai pas à me plaindre s’en mon iPad Pro perso…car je sais que tsmc , galère énormément à sortir ce genre de proc. c’est vrais que j’ai toujours eu du mal avec ce mot « basique » car pour moi , basique , c’est vraiment le minimum du minimum, limite proche du bas de gamme. Mais je suis content que vous soyez en grande partie d’accord avec mes écrits (car pour les pensées, ça va être très compliqué 😅), même si j’ai compris ce que vous vouliez dire par le mot « pensée » . Pensée = écrit . J’ai juste , je pense 🧐

avatar debione | 

@Gerrer:

Quand je parle avec quelqu'un, je suis obligé de prendre le recul sur le vocabulaire et surtout les qualificatifs.
Si je dis important, exceptionnel ou que sais-je, cela activera un schéma de compréhension. Hors, nous sommes tous différents avec des schémas différents.
Il faut parfois expliquer ce que l'on pense être un oval pour que la représentation de l'autre soit un rond.

avatar Gerrer | 

@debione

Oui c’est ce que vous vouliez dire par « pensée ». Là « pensée » C’est exprimé le fond de sa pensée tout en restant compréhensif , compréhensible et courtois. Car personne d’autre que sois même n’es dans sa tête. Je comprends tout à fait 🙂👍 ça facilite grandement les discussions et c’est beaucoup plus agréable. Mais hâte de voir ce que vont nous sortir les fabricants comme future proc , ordi , consoles etc… c’est très intéressant 🧐. Mais ce qui existe actuellement est laaaaaaargement suffisant. Donc même si on a de vieux proc , inutile d’avoir honte 😊👍 car tout dépend de ses besoins et de son budget. Bonne soirée à vous et merci pour vos explications, si seulement plus de monde pouvais être aussi poli , courtois et patient que vous sur ce site , les commentaires seraient tellement plus agréable (même si le site reste très bien avec des articles au top du top).

avatar Dimemas | 

l'article est un peu trompeur sur la partie conso
le M2max en question consomme autant que le ryzen affiché si ce n'est plus
en effet suivant la version, le M2 max consommerait entre 44 et 64 W. (mais il y a le gpu)
Et puis il faut aussi distinguer les consommations affichées qui sont souvent les consommation lorsque le CPU est utilisé à fond.

donc oui apple a du souci à se faire mais non ça ne change rien, le monde x86 et apple avec son arm sont 2 visions complètement différentes voire diamétralement opposées par leurs CPU

https://www.notebookcheck.net/Apple-M2-Pro-and-M2-Max-analysis-GPU-is-more-efficient-the-CPU-not-always.699140.0.html

avatar redchou | 

@Dimemas

Pour ce qui est de la consommation, il faut plutôt comparer les Mx avec le Z1 par exemple, dans le cas d’un portable équipé de la puce 7945HX3D, le fait d’avoir une architecture CPU + GPU + RAM + VRAM dissocié pénalise lourdement la consommation.

avatar Pierre Dandumont | 

Je ne me suis pas étendu sur le sujet, mais non, ce n'est pas trompeur. La consommation du M2 Max est entre 45 et 65 W (en gros) avec le GPU. Même en prenant une estimation faible sur les performances du GPU d'Apple, une carte graphique équivalente va consommer plus de 100 W en version mobile.

Globalement Apple consomme deux à trois fois moins en pratique, à performances proches.

avatar Ghaleon111 | 

Il y a des bonnes cg mobile qui consomment entre 40 et 65w en charge.
Donc ça fait toujours moins d'autonomie que chez apple, mais on y gagne tellement en polyvalence et performances à tarif inférieur.

avatar Dimemas | 

à pierre :
c'est en partie faux aussi
car tu prends en compte une conso maxi sauf qu'en dehors des jeux et de la grosse 3D c'est rarement le cas...
et en plus le cpu n'est pas sollicité à fond mais admettons

Et tu oublies que le processeur en question est plus puissant que le M2max

Mais 2-3 fois moins c'est telleeeeeement faux suivant les usages !!!
tu compares juste une machine pour les gamer avec un processeur surdimensionné avec une puce hyperpuissante dans le monde mac mais déja dépassé par des processeurs x86 qui consomment moins comme le 12700H qui a plus d'un an (bon je parle de la partie CPU)... Un peu de nuance.

j'aurais du filmé mon test de crossover games avec mon M1 il y a 2 ans qui a fait une heure d'autonomie

edit : regarde ce test est intéressant aussi : https://nanoreview.net/en/cpu-compare/apple-m2-max-vs-amd-ryzen-7-7840hs

avatar Gerrer | 

Ce genre de processeur pourrais être bien pour une prochaine Xbox ou une prochaine PlayStation. Quoi que leurs processeurs à tu sont déjà très bon… à part celui de la série s qui apparemment empêcherais ou ralentirais le développement de jeux vidéo (ce que personnellement j’ai beaucoup de mal à croire).

avatar debione | 

Quand je vois ce qu'à fait intel avec ses 12 et 13 ième génération, quand on voit ce que Nvidia peut envoyer en partie graphique, que l'on met cela en comparaison avec l'évolution M1=>M2, je me demande si Apple ne va se retrouver très vite comme au temps des G4-G5, complètement dépassé par les solutions concurrentes...
C'est déjà le cas pour la puissance brute, ou Apple c'est fait très très rapidement dépasser (perso, je pensais au vu des dires ici que cela prendrait bien plus de temps pour égaler) en CPU et carrément exploser en GPU.
Reste la consommation ou Apple reste encore bien devant... Chose qui peut-être importante pour les portables, mais bien plus insignifiant pour les posts fixes...
Quand on voit la puissance du dernier MacPro on peut se poser la question de savoir pendant combien de temps ls ordis fixes vont rester au catalogue Apple.
A moins que sous dix ans Apple parte par exemple se fournir en proc chez AMD (et connaissant Apple, ils en sont parfaitement capable si cela leur est bénéficiaire pécunièrement)

avatar Gerrer | 

@debione

Je ne pense pas qu’Apple se fera dépasser… ils savent faire d’excellentes processeurs, je ne m’en fait absolument pas pour eux. Et puis si la concurrence réussit à passer légèrement devant , Apple créera autre chose , d’encore plus sophistiqué etc… et avec tout le pognon qu’ils ont , ils ont tout intérêt à mettre le paquet là dessus… et je pense qu’ils le savent très bien. Ils en sont largement capable. Mais bon , celui existe actuellement suffis laaaaaaaaargement aux communs des mortels. Le reste n’es destiné qu’as 3-4 geeks et à quelque métiers ou utilisation de niche. Par contre là où Apple doit sérieusement s’améliorer, c’est la partie jeux vidéo…

avatar debione | 

@Gerrer:

Je suis d'accord avec vous, mais Apple ira surtout là ou ils ont le plus de chance de garder leur rentabilité.
Le truc c'est qu'Apple est dans une architecture largement customisée par elle-même. Mais malgré tout le pognon qu'elle possède, il n'est absolument pas certains qu'elle puisse prendre les virages suivant de la même manière. On avait quand même tendance a enterrer le X86 depuis la sortie des M1 et solutions à la Nvidia, alors qu'elle montrent qu'elles sont toujours bien en vie (sur un créneau légèrement différent) et que les solutions ARM, aussi séduisantes soit-elle sur bien des aspects, n'arrivent absolument pas à concurrencer en puissance brute.

Alors oui, pour les personnes à usage standard, l'actuel est déjà plus que trop puissant.
Je suis encore sur un MBP de 2015 (i7), je fais de la MAO, le seul truc que je lui reproche c'est ces 16Go de Ram. Cet ordi conviendrait parfaitement aujourd'hui à n'importe qui en usage standard (après j'ai bloqué les Màj à Mojave).

avatar marenostrum | 

qui fait plus d'argent, Apple, AMD, Intel ou Nvidia ? c'est ça la seule question. les autres ce n'est que du blabla des fans club.

avatar Gerrer | 

@marenostrum

Apple je dirais. Mais c’est bien que les gens discutent entre eux. C’est toujours intéressant de connaître les différents points de vue , du moment que c’est respectueux (même si ça ne reste qu’un avis, et l’avis ne concerne que celui qui l’as dit ou écrit) Et puis la concurrence , ça n’as pas que des mauvais côté. L’argent c’est bien mais des produits adaptés pour chacun , c’est mieux car sans produits intéressant, pas d’argent. Donc les fans regardent avec attendrions ce que les fabricants vont sortir sinon , ils risquent fort d’aller voir ailleurs si ça ne leurs plaît pas. Pour le consommateur, c’est toujours bénéfique la concurrence (enfin en règle générale, pas toujours). 😉👌

avatar marenostrum | 

l'argent pousse ces gens travailler acharnement, pas autre chose. et ce qu'ils font sont des choses insignifiantes en fait, pour ça qu'on connait pas les inventeurs. s'ils étaient des poètes on aurait connu tous, même par coeur, les meilleurs.

et puis c'était normal que Intel ou AMD se laisse pas distancer facilement en rapidité de leur puces. ils savent faire que ça. mais c'est pour l'argent qui se battent. Apple qui ait passé sur ses propres puces, pour l'argent aussi qui l'a fait (ne pas payer Intel). y en avait pas d'autre but (scientifique ou technologique etc) derrière. le gars qui a pondu cet article (ou les articles qui sont donnés dans les commentaires en tant que preuves irréfutables, c'est pour l'argent aussi qui ont été fait. pour ça que tout est insignifiant. l'argent, le motif de tous ces gens est minable.

discuter c'est bien mais il faut pas se tromper de cible, sinon c'est une perte de temps.

avatar Gerrer | 

@marenostrum

Je ne pense pas que ceux qui crée des processeurs soit des minables. Ni même ceux qui sont passionnés par ça. Ce n’es pas insignifiant non plus, très loins de la même. C’est très important. Car sans processeur, pas machine scanners dans les hôpitaux, pas de téléphones, pas de tablettes, pas de consoles de jeux, pas de voitures , pas de fusée etc… enfaite , y aurais quasiment rien qui fonctionnerais sans ça. Je ne serais pas aussi négatif que vous sur le sujet car ce n’es pas évident de développer et fabriquer des processeurs. Ça demande une très grande maitrise , de À à Z. Évidemment qu’ils font ça pour l’argent , je suis d’accord , ce sont avant tout des entreprises qui sont là pour gagner de l’argent. Ce n’es pas l’abbé Pierre. Mais ceux qui les fabriques et les inventent , il le font aussi pour l’argent car il faut bien gagné sa vie. Tout le monde travail pour gagner sa vie , toutes les entreprises ont besoins d’argent pour payer leurs employées etc… J’avoue ne pas trop comprendre votre haine, car si ce sujet ne vous intéresse pas, je ne voit pas trop ce que vous faite ici... les inventeurs de ses processeurs ne font absolument rien de mal que je sache. C’est un métier fondamental aujourd’hui. C’est indiscutable. Ça démontre surtout le savoir-faire technologique de ses entreprises.

Ps: énormément de poètes et de poèmes sont tomber dans l’oublie au fil du temps. Mais je pense sincèrement que ce qui es réellement insignifiant entre un poème et un processeur, bah c’est le poème , car il ne sert fondamentalement à rien. C’est indéniable. Au contraire du proc qui lui servira à tout un tas de chose. Personnellement je m’en fiche de savoir qui l’as inventé, tant que ça m’aide dans ma vie de tout les jours… je le répète : oui il font ça pour l’argent , c’est indéniable , mais est-ce que leurs produits sont mauvais pour autant ? Bien sûr que non. Ça n’en fait pas des sous-métiers, des minables ainsi que des produits insignifiant. Car ils répondent à une demande bien spécifiques de millions de personnes à travers le monde.

D’ailleurs, la plupart de gens qui travaillent sur cette terre , on ne connais pas leurs noms mais ça ne veux pas dire qu’ils ne valent rien, que leurs travail es sans importance et insignifiant. Ce sont souvent ces petites mains , qui mériterais d’être connus , et non des footballeurs , des acteurs , ou certains rappeurs (même si j’aime bien le rap aussi). Tout les matins je le lève pour allez travailler, est-ce que l’on travail ne vaut rien ? Bien sûr que non. Tout ceux qui se lève le matin pour allez travailler durement , ont du mérite. Et évidemment que je me lève pour l’argent. Personne ne travail gratuitement. ☺️👍 les seules qui travaillent gratuitement, ce sont ceux qui bossent pour les associations.

Je vous souhaite une très bonne soirée en espérant avoir pu répondre à vos questions 🙂👋.

avatar fleeBubl | 

La cuisson ?¿
À point, merci!i

avatar smog | 

C'est un truc que je ne comprendrai jamais, ça : utiliser un portable pour faire des jeux en qualité maxi.
Alors qu'une tour avec le même niveau de composants, c'est moins cher...

Enfin je ne suis pas gamer et très peu concerné, mais j'aime comprendre ;-)

avatar debione | 

@smog:

Je peux avoir besoin d'un portable pour faire par exemple de la MAO...
Ce qui ne m'empêche en tout cas pas d'être aussi un gamer...
Donc je devrais acheter un ordi pour la MAO + un ordi pour jouer...
Ou sinon, je prends un Lenovo i9 13ième génération avec au cul une 4090, 2To de SSD et je m'en sorts pour 3000.-...
Ou sinon, je pose 3000 boules pour un 14" de chez Apple pour la MAO + 2000 pour une tour gamer...
le calcul est vite fait.

avatar smog | 

@debione : oui, je comprends ton exemple, mais je pensais à ceux qui sont orientés "gaming" et uniquement gaming. J'en connais tellement (la plupart de mes étudiants en informatique !) qui ont ça pour jouer quasi exclusivement... Et qui ne le trimballent pas en cours parce qu'ils ne veulent pas les abimer et/ou parce que trop lourds !

Pour ma part, je pense d'ailleurs investir dans une tour PC (Windows/Linux) pour mes rendus Blender 3D, avec un AMD 5 7800 sur carte AM5 et une 3070 Ti, je devrais m'en sortir pour 1100 euros environ d'après mes recherches (un peu longues d'ailleurs). Je modélise sur mon Mac Mini mais pour le rendu des vidéos, merci !

avatar RonDex | 

@smog

Pour le gaming pur, autant s’orienter (a ce tarif) vers le cloud gaming. 🤷‍♂️

avatar Gerrer | 

@RonDex

Sur pc peut-être, mais sur console non. Rien ne vaut les jeux en boîte. Je suis un puriste des boites 😅.

avatar Dimemas | 

@ smog : on est 2 ...

avatar Fego007 | 

Un article technique pour détailler la mémoire+cache ? 144mo c’est bien ? Pas bien? On peut *? Quel intérêt sur les perf ?

Je pose des questions de novice peut être mais j’ai un peu de mal à voir en quoi c’est «  important «  et comment le comparer ?

Merci 🙏🏻

CONNEXION UTILISATEUR