AMD annonce les Ryzen 9000 (Zen 5) au Computex

Pierre Dandumont |

AMD a profité du Computex, un grand salon taïwanais, pour présenter la nouvelle version des Ryzen. Les Ryzen 9000 succèdent donc aux Ryzen 7000 et passent de Zen 4 à Zen 5. Depuis quelques années, AMD a le vent en poupe et la nouvelle génération devrait donc encore amener des gains importants face aux générations précédentes.

Une gamme complète (image AMD)

Les Ryzen 9000 (nom de code Granite Ridge) gardent le même type de structure qui a fait le succès d'AMD depuis Zen 2. Un processeur est donc composé de différents blocs physiques (les chiplets) qui comprennent soit des cœurs pour le CPU, soit toute la partie plus secondaire, comme le GPU intégré (qui sert juste à afficher le bureau de Windows) ou le contrôleur mémoire. Cette partie reste en 6 nm (par TSMC) alors que les cœurs CPU, eux, passent en 4 nm.

AMD a annoncé avoir amélioré l'IPC (instructions par cycle, c'est-à-dire l'efficacité du processeur) et amélioré la bande passante des différents niveaux de cache. Si vous trouvez que c'est proche de ce qu'Arm a annoncé récemment, vous avez raison : il s'agit du nerf de la guerre dans ce domaine.

Arm annonce sa gamme de CPU 2024, pour les puces de 2025 : Cortex X925 et A725

Arm annonce sa gamme de CPU 2024, pour les puces de 2025 : Cortex X925 et A725

AMD a notamment amélioré les performances avec les instructions AVX-512, utilisées dans certains calculs liés à l'IA. Alors que les Ryzen 7000 traitent les vecteurs de 512 bits sous la forme de deux vecteurs de 256 bits (et donc en deux cycles), les Ryzen 9000, eux, travailleront directement en 512 bits avec un gain de performances évident à la clé. Dans l'ensemble, AMD annonce un gain de 16 % par rapport à Zen 4, ce qui est dans la moyenne haute pour une nouvelle architecture. Compte tenu des avancées annoncées, AMD devrait donc proposer des puces aussi rapides que l'Apple M4, du moins sur les performances. Comme chez Arm, par ailleurs, AMD n'intègre pas encore de NPU dans ses puces haut de gamme, contrairement à Apple.

AMD explique que l'architecture a été améliorée (image AMD)

Comme toujours, la marque a d'abord annoncé les puces les plus performantes de la gamme. Le principal est évidemment le Ryzen 9 9950X : il intègre seize cœurs avec une fréquence maximale de 5,7 GHz, 64 Mo de cache de niveau 3 et un TDP de 170 W. Le Ryzen 9 9900X se contente de douze cœurs et 5,6 GHz, contre huit cœurs et 5,5 GHz pour le Ryzen 7 9700X. Enfin, le Ryzen 5 9600X possède six cœurs et une fréquence maximale de 5,4 GHz, pour 65 W de TDP.

Le Ryzen 9 9950X est évidemment présenté comme le meilleur processeur pour les joueurs, et il ne sera probablement détrôné que quand AMD proposera une variante 3D équipée d'une puce de mémoire cache supplémentaire. Si AMD garde une compatibilité intéressante — les Ryzen 9000 vont fonctionner sur les cartes mères dédiées aux Ryzen 7000 en AM5 —, une nouvelle gamme de chipsets (la série 800) amène tout de même deux choses. Premièrement, les cartes mères intégreront obligatoirement de l'USB4, alors que la norme est optionnelle (mais courante) sur la série 600 actuelle. Deuxièmement, le Wi-Fi 6E va laisser sa place au Wi-Fi 7. Ce n'est pas directement lié au chipset (le Wi-Fi n'est pas intégré) mais probablement une obligation pour les constructeurs.

C'est mieux qu'Intel dans les jeux selon AMD.

Dans tous les cas, il s'agit d'une évolution intéressante de la part d'AMD, qui ne se repose pas sur ses lauriers. La date de sortie des nouvelles puces est connue (juillet 2024) mais pas le prix, malheureusement. Il faut tout de même rappeler que si les puces dédiées aux PC de bureau représentent le fer de lance de la gamme, la majorité des ventes s'effectue maintenant sur les PC portables. Mais comme toujours avec AMD, il y a un petit décalage entre les Ryzen desktop et les versions mobiles, qui se basent sur des concepts différents.

Deux nouveaux Zen 3

En parallèle, AMD a aussi annoncé deux nouveaux processeurs parfaits pour une mise à jour, les Ryzen 7 5800XT et Ryzen 9 5900XT. Prévus pour les supports AM4 — qui a été employé depuis les premiers Ryzen de 2017 —, ils devraient normalement être proposés à un prix faible pour que ceux qui ont encore un PC à base de DDR4 puissent mettre à jour leur processeur. Le Ryzen 7 5800XT est une mise à jour très mineure : il garde le même TDP (105 W) et le même nombre de cœurs (huit) que la version classique (Ryzen 7 5800X) mais monte la fréquence de 100 MHz, soit 2,3 % (de 4,7 GHz à 4,8 GHz en pointe). Le second est plus intéressant : alors que le Ryzen 9 5900X est un modèle doté de douze cœurs, le Ryzen 9 5900XT en possédera seize. Le TDP reste le même (105 W), tout comme la fréquence maximale (4,8 GHz) mais la fréquence de base, elle, diminue de 3,7 GHz à 3,3 GHz. Ce n'est normalement pas un problème sur un système bien refroidi. Si les prix sont compétitifs, les deux puces pourraient donc trouver le succès.

Une mise à jour pour l'existant (image AMD)
Tags
avatar Moebius13 | 

Les graphiques de différence de perfs me feront toujours marrer surtout quand ça touche aux performances en JV.

La question est de savoir quelle résolution a été retenue et quel GPU a été utilisé ?

Je suis certain que sur une résolution 4K la différence de performances entre un 14900K et un 9950X sur Horizon Zéro Dawn n’est certainement pas de 23% (a cette échelle c’est beaucoup plus dépendant du GPU), ce serait encore plus étonnant pour Cyberpunk qui est fortement GPU Limited si on balance la sauce.

À voir la réponse d’Intel en ce qui concerne l’applicatif en revanche, mais là encore on attendra les tests de ces nouveaux CPU pour confirmer ces écarts qui me paraissent vraiment élevés 🤔

avatar Dimemas | 

moi ce qui me fais rire c'est ce que genre de commentaires incendiaire via-à-vis de AMD et intel qui font à peu près le boulot là où apple et Macg affirment que les puces apple silicon ont le ray tracing et qu'on peut jouer "confortablement " sur des macs sans parler ni de résolution, ni des options utilisées par ces machines (et croit moi, les perf des pc même à fond avec ray tracing et 4k avec une RTX 4080 seront forcément mieux que celle d'un Mac Studio sans réglages ;))

apple et le souci du détail, c'est clairement le flou intersidéral.
si tu veux des d"mails, je te recommande des sites comme guru3d, techspot et cowcotland

avatar pacolapo | 

J'ai été voir, pour me rafraichir la mémoire, ca ne parle de jeux video sur le Mac Studio, et y a 1 encart sur le Macbook Pro noyé dans des tonnes d'autres choses.

Après, la personne ayant un minimum de bon sens, de connaisances ou de conseils de quelqu'un de plus calé, saura que ce n'est pas des machines des jouer, même s'ils commencent à vouloir tremper les orteils dedans.

Et je ne parle pas de la différence de consommation énérgetique qui n'a strictement rien à voir. Un M2 Ultra poussé consomme environ 330w, c'est au minimum 2 fois moins qu'un PC avec une 4080, qui évidemment explosera le plus gros des Mac actuel sur du jeu.

avatar Moebius13 | 

@Dimemas

Toi manifestement tu ne me connais pas, mon setup est une tour à base de 14900KS sous WC custom + RTX 4090 et 48 Go de DDR5 à 7900Mhz.

Je suis le premier à dire qu’elle piétine des talons toutes les configurations qu’Apple peut aligner, sans même parler des jeux.

D’ailleurs j’ai longuement critiqué le positionnement d’Apple sur le JV et la publicité mensongère vis à vis des 4 portages d’AAA sous Apple A17 Pro durant la conférence de l’iPhone 15 Pro parce que les images montrées ne correspondent absolument pas à ce qu’on a eu in fine (des portages immondes, RE7 au premier rang).

Je n’ai même pas besoin de parler des Soc Apple puisque les compare entre eux seulement, et même quand ça parle des perfs single core des Soc M qui seraient supérieures à celles des meilleurs Intel ou AMD, je prends soin de préciser qu’on ne compare pas de l’ARM avec du X86 parce que c’est pas si simple, les jeux d’instructions pris en charge sont différents et les usages aussi.

Ça n’est même pas demain la veille ou un Soc M pourra sortir en JV ce que sortait une PS4 ou une PS4 Pro malgré ce qu’Apple voudrait nous faire gober (et oui la prise en charge du Ray Tracing c’est sur le papier, dans les faits c’est risible et lors de la présentation du M3 ça ramait sévèrement du cul leur démo avec RT).

avatar daxr1der | 

@Moebius13

Je suis d’accord avec toi à 100%

Ton Setup par contre n’est pas sans défaut. Tu est obligé d’aller dans le bios pour changer le voltage max PL1 et PL2 😅

Depuis plus d’un an j’avais des plantages voir du stuttering dans les jeux avec mon i9 13900k… J’ai trouvé le problème depuis peu, tellement dégoûté d’intel que j’attends le prochain X3D de chez AMD pour vite me barrer…

avatar Moebius13 | 

@daxr1der

Je n’ai eu aucun problème avec les paramètres d’origine sur ma configuration ou sur mes jeux.

Malgré tout vu le gain inexistant avec les limites complètement folles de CM, j’ai fixé celles-ci à 253W, soit ce qui est fixé par Intel (c’est pas eux qui font n’importe quoi mais les fabricants de CM, Intel spécifie très bien les limites de consommation d’usine et le TDP prévu).

Pour les moins habiles on peut même passer par Intel XTU qui permet de modifier tout ça très simplement sans passer par le bios, et si avant ça se remettait par défaut à chaque redémarrage, ça n’est plus le cas désormais.

J’ai effectivement lu qu’il y avait des personnes qui avaient des soucis avec les limites fantaisistes de consommation sur les générations 13 et 14 et les modèles les plus haut de gamme, mais ça n’est pas systématique (je ne sais pas ce qui favorise le soucis et ça ne doit pas concerner tous les jeux loin de là).

Et si on utilise un 14900K ou un 13900K uniquement pour les jeux ou presque, avec peu d’applicatifs lourds, le mieux est encore de limiter le TDP à 125W, c’est le Sweet Spot parfait qui fait perdre entre 8 et 10% de perfs en jeux en moyenne (sur 20 jeux testés), ce qui est peanuts, surtout en 4K, et qui diminue drastiquement les températures (-20° chez moi).

avatar Dimemas | 

A moebius : non attention, ce n’était pas toi que je visais directement :) mais plutôt la remarque que je trouve souvent ici
C’était surtout les articles du genre et qu’on voyait souvent ce genre de critiques faciles sur des sites Mac.

Pour le reste je suis entièrement d’accord avec toi

avatar Pierre Dandumont | 
@Moebius13 sur la comparaison avec la PS4, c'est le cas, en fait. Globalement, les jeux "AAA" sur iPhone 15 Pro tournent comme sur un PS4 (un peu plus rapidement, parce que le CPU est bien plus rapide). Des gens comme Digital Foundry le montrent bien. Ce qui est pas si mal sur un écran de cette taille et en consommant plus de 10x moins
avatar Moebius13 | 

@Pierre Dandumont

Jamais de la vie !

Tu ne feras pas tourner The Last of Us 2 en 1080p 30 fps ou en 1440p 30fps sur un A17 Pro ou un M2.

Il y a les chiffres bruts et la réalité et avec les AAA portés sous iOS j’ai vu….

Il suffit de voir la tronche de RE7 et RE4 pour voir que c’est tout simplement dégueulasse et que c’est un bête portage sans optimisation (les cheveux de Léon sous RE4 c’est une horreur 😱).

Une PS4 colle encore une fessée à ce que peut sortir un A17 Pro ou un M2 et c’est bien normal.

J’ai également pu tester Death Stranding sur IPhone 15 Pro Max et IPad Pro M2 et c’est pareil, la résolution pèche énormément, l’aliasing est omniprésent et le framerate à la rue, et même si j’ai une PS5 à la maison, c’est un jeu que j’ai fait sur PS4, et c’était beaucoup plus joli et stable.

Je ne parle même pas du moteur d’Upscaling Metal d’Apple qui est à des années lumière du DLSS, du FSR ou du Xess (on peut surtout comparer avec le FSR puisque les autres utilisent des unités dédiées et l’upscaling n’est pas uniquement logiciel).

Et la prise en charge du Ray Tracing est une blague et un simple argument commercial pour dire « on peut le faire », oui oui c’est sur mais à 15 fps 🤷‍♂️

Il n’est même pas dit qu’un M3 Pro puisse égaler en jeux une PS4 Pro, je demande à voir.

Quant à Digital Foundry je suis un aficionado et ils n’ont jamais dit qu’un M2 ou un A17 Pro pouvait faire mieux graphiquement qu’une PS4, ils ont salué les performances bruts et les capacités des Socs par rapport à leur consommation, ça c’est vrai, mais ils ont critiqué l’exploitation qui est faite de ces Socs, surtout sur les tests des portages.

avatar melaure | 

@Moebius13

Serait-ce une comparaison des IGP ? Peut-etre possible dans ce cas, non ?

avatar Moebius13 | 

@melaure

Je me suis posé la question en effet et là effectivement ça devient beaucoup plus probable mais en l’absence d’indication je ne sais pas.

Ce sera intéressant de voir comment se comporte ces nouveaux CPU par rapport à la génération 14 d’Intel quand les RTX 5000 seront sorties.

On verra si le 14900K peut gérer une 5090 sans etre CPU limited et ce que ça donne avec un 9950X.

Si dans les deux cas, en 4k, y’a pas de CPU limited, en JV l’intérêt des nouveaux AMD sera tout relatif (à voir en applicatif).

Après y’a aussi la consommation, le 9950X est annoncé à 170W, si c’est effectivement la consommation donné en charge, et que les performances sont à la hauteur ou supérieures à un 14900K, ce serait une belle prouesse.

Parce que le bouzin d’Intel tabasse mais alors pour le refroidir je te raconte pas, avec un Ventirad, même le meilleur, c’est même pas la peine, et même un AIO, en dessous d’un 360mm ça reste tendu 😬

Après l’avantage c’est que tu peux passer ton 14900K ou KS, de 253W de consommation à 125W et ne lâcher que 10% de perfs en moyenne dans les jeux, pour un gain énorme sur les températures, ça montre que niveau architecture le boulot est clairement là.

La présentation d’AMD m’a moyennement convaincu après l’avoir regardé, j’ai l’impression qu’ils arrivent au bout de l’architecture Zen et que le gain obtenu ne se fait que grâce à la finesse de gravure.

En parallèle Intel a longtemps stagné sur du 10nm+ et j’attends de voir ce que va donner sur un process de gravure équivalent à AMD, ça risque de faire très très mal !

avatar daxr1der | 

@Moebius13

Pour toi le PL1 et PL2 tu paramètres quoi pour un 13900k ? sur des sites différents je n’ai pas les memes informations. Merci

avatar Moebius13 | 

@daxr1der

PL1 et PL1 je colle 253W avec mon WC custom (comme le préconise Intel) mais si je voulais faire drastiquement baisser les températures sans perdre en perfs dans les jeux, je fixerais les deux valeurs à 125W, c’est LE Sweet Spot pour un 13900K ou un 14900K sur les jeux vidéo.

Après si tu ne joues pas et que tu fais de l’applicatif, le mieux est de rester sur 253W pour conserver le maximum de performance sans pour autant que le CPU parte en sucette pour des gains de perfs ridicules.

avatar pacolapo | 

" AMD a profité du Computex, un grand salon taïwanais "

C'est pas un peu réducteur ? A part le CES, y a quoi d'autres comme salon majeur ?

avatar bigga | 

Je pense que c'est juste un problème de tournure, l'auteur voulait surement dire un salon à la fois grand et taiwanais.

avatar debione | 

@bigga:

Dans ce cas on utiliserait de préférence "LE" plutôt plutôt que "UN" non?

avatar daxr1der | 

Hate de voir l’annonce du nouveau X3D… Vous pensez qu’ils vont bientôt le dévoiler ?

avatar bigga | 

Les rumeurs (qui avaient vu juste pour les annonces d'AMD d'aujourd'hui, par exemple celles du youtuber Moore's Law is Dead) parlent d'une sortie en fin 2024, début 2025.

avatar Glop0606 | 

AMD fait depuis quelques temps de très bons processeurs au rapport qualité prix super intéressant. A moins qu'Apple ne se réveille sur l'IA, les dernières annonces au niveau des PC au computex avec les accords entre MS avec Nvidia et AMD risquent d'envoyer du très lourd et de remettre les PC au devant de la scène. Le conférence Nvidia était aussi très intéressante.

avatar raoolito | 

@Glop0606

"AMD fait depuis quelques temps de très bons processeurs au rapport qualité prix super intéressant."

elle REfait, vous n'avez peut-être pas connu la glorieuse époque des Athlons

avatar debione | 

Ce que je trouve pas mal du tout, c'est le 170W sur le haut de gamme. De mémoire l'Intel est à 250 non?

avatar Pierre Dandumont | 
C'est un TDP "AMD", donc faut faire fois 1,35

CONNEXION UTILISATEUR