Intel atteint 6,2 GHz avec une édition spéciale un peu vaine d'un Core i9 🆕

Pierre Dandumont |

Mise à jour du 15 mars 2024 : Comme prévu, Intel a annoncé son Core i9 14900KS. Cette édition spéciale propose donc une boîte un peu exclusive et peut atteindre une fréquence de 6,2 GHz si vous n'avez pas peur de sa consommation électrique, qui peut atteindre 325 W en pratique (et sans overclocking). Il s'agit donc du processeur Intel le plus rapide du moment, même s'il reste battu dans les jeux par le Ryzen 9 7950X3D selon les premiers retours. Terminons par le prix : 700 $ aux États-Unis (sans les taxes) et 860 € en France. Soit 140 € de plus que le Core i9 14900K, pour 200 MHz (ou 3 % de gains en fréquence).

La boîte exclusive du nouveau modèle.

Depuis de nombreuses années, Intel propose de façon régulière des « éditions spéciales » de ses processeurs, pour les utilisateurs qui veulent battre des records. Ils s'appelaient « EE » du temps des Pentium 4, ils ont un « S » à la fin du nom pour les modèles modernes. Et le Core i9 14900KS devrait — comme ses prédécesseurs — battre des records de performances… mais aussi de consommation.

Comme pour ses prédécesseurs (ici un 9900KS), attendez-vous à une boîte exclusive et un prix élevé.

Si à une époque Intel déclinait des versions professionnelles dans le monde grand public, le Core i9 14900KS devrait bien être une puce classique, mais avec une fréquence plus élevée. Il intègre donc huit cœurs performants et seize cœurs basse consommation (soit trente-deux threads exécutables) selon les rumeurs (probablement avérées). Le processeur est a priori gravé en Intel 7 (le nom marketing du 10 nm) et reprend donc la même architecture que les Core de 12e et 13e génération. Cette édition spéciale devrait sortir du lot pour une raison : sur un seul cœur, il pourrait atteindre 6,2 GHz, un record dans les puces x86. C'est 200 MHz de plus que le précédent modèle « S » (le Core i9 13900KS) ou le Core i9 14900K.

Comme souvent chez Intel, la seule marge de manœuvre possible est visiblement ici la consommation. Le TDP de base devrait être de 150 W (contre 125 W sur les versions classiques) et la valeur PL2 (dite Turbo) sera probablement la même que pour les modèles précédents, c'est-à-dire 253 W. Mais, car il y en a un, les cartes mères haut de gamme n'appliquent généralement pas ces limites1. Les premiers tests, relayés par Igor's Lab, montrent d'ailleurs une consommation moyenne en charge de 330 W et une consommation maximale de 410 W.

410 W, soit à peu près dix Mac mini M1.

En résumé, le Core i9 14900KS est un processeur pensé pour battre des records, avec une consommation hors norme. Il n'est pas réellement adapté à un usage quotidien car les rares systèmes de refroidissement capables d'encaisser une telle débauche de watts sont onéreux et bruyants. Dans un sens, ce genre de puces montre d'ailleurs que la voie actuellement choisie par Intel est un peu vaine, même si certains aiment s'amuser avec des CPU qui sont essentiellement des démonstrations technologiques qui existent uniquement pour rassurer les clients d'Intel : ce sont bien les CPU les plus rapides.


  1. Pour une raison bassement pragmatique : avec une limite à 253 W, les contraintes thermiques ne devraient pas lui permettre d'être plus rapide que ces prédécesseurs.  ↩︎

avatar Scooby-Doo | 

@Pierre,

Est-ce que cela présente un intérêt alors que l'on fait plutôt la course au rapport efficacité / sobriété energétique !

😁

« Dans un sens, ce genre de puces montre d'ailleurs que la voie actuellement choisie par Intel est une peu vaine, même si certains aiment s'amuser avec des CPU qui sont essentiellement des démonstrations technologiques qui existent uniquement pour rassurer les clients d'Intel : ce sont bien les CPU les plus rapides. »

👍

Ils sont donc content chez Intel d'avoir l'un des processeurs qui consomme le plus !

👌

avatar valcapri | 

@Scooby-Doo

Surtout pour 200 MHz en plus.

Je suis bien content avec mon Ryzen 7950x3D et mon Ryzen 5800x sur mon HomeLab. On est proche des 140w de TDP sur le 7950x3D.

Je ne parlerai pas de la consommation des puces Apple, qui sont les meilleures dans ce domaine.

avatar Scooby-Doo | 

@valcapri,

« Surtout pour 200 MHz en plus. »

👍

« Je suis bien content avec mon Ryzen 7950x3D et mon Ryzen 5800x sur mon HomeLab. On est proche des 140w de TDP sur le 7950x3D. »

https://nanoreview.net/en/cpu-compare/apple-m3-max-vs-amd-ryzen-9-7950x3d

AMD fut trop longtemps décrié par les aficionados des processeurs Intel. Il est heureux de voir que la concurrence d'AMD offre d'autres alternatives, parfois moins chères, plus économiques en consommation, avec un meilleur rapport qualité / prix.

Après AMD a connu des périodes difficiles et c'est bien qu'ils aient pû surmonter cela.

« Je ne parlerai pas de la consommation des puces Apple, qui sont les meilleures dans ce domaine. »

Et dans ce domaine, Intel est ridiculisé !

👍😁

avatar whocancatchme | 

@Scooby-Doo

C’est un peu comme la première Bugatti Veyron, un veau de 2T qui consomme du 100L au 100 mais qui peut aller à 400 en ligne droite donc les mecs sont contents !

avatar Scooby-Doo | 

@whocancatchme,

On parle bien de cette voiture qui pour rouler à 400 km/h consomme quasiment à l'heure un jeu de quatre pneus Pirelli fabriqué sur commande ?

😁

avatar noooty | 

@Scooby-Doo

1 jeu de pneus à l’heure quand tu roules à 400 km/h, c’est presque rentable.
Mais si tu roules entre 20 et 50 en ville, ça l’est un peu moins 🤪

avatar Scooby-Doo | 

@noooty,

« Mais si tu roules entre 20 et 50 en ville, ça l’est un peu moins 🤪 »

Non les pneumatiques s'usent très rapidement mais uniquement au-delà de 280 km/h il me semble.

Je ne peux pas trop dire puisque j'évite de rouler en dessous des 400 km/h !

Par contre à cette vitesse, vous laissez sur place le TGV qui tente vainement de faire la course avec vous sur une LGV stupidement limitée à 320 km/h !

😁

Pour information :

Il semblerait que la mairesse de Paris ait décidé d'imposer le 20 km/h à la SNCF sur ses LGV en ville pour ne pas faire trop de concurrence aux livreurs sur bicyclette !

Prochaine étape : le 5 km/h imposé à tous, histoire de ne pas distancer les piétons !

🥳

avatar Biking Dutch Man | 

@whocancatchme

J'allais faire exactement la même comparaison! Une approche ridicule du XXème siècle!

avatar noooty | 

@whocancatchme

Et ils disaient toujours: t’as vu, j’en ai une plus grosse que toi 🤪

avatar melaure | 

Vivement le jour où on taxera les ordinateurs pour leur consommation, comme on le fait pour les voitures ! Ca équilibrera un peu les choses !

avatar FearOzz | 

C'est déjà le cas, l'électricité consommée est soumise à la TVA.

avatar melaure | 

L'essence aussi, la je parle du malus écologique ...

avatar pocketalex | 

Du coup, si tu as une tour PC Intel qui tourne au diesel ...

avatar raoolito | 

quel bordel pour aller faire le plein 🥳

avatar fte | 

@Scooby-Doo

"Est-ce que cela présente un intérêt alors que l'on fait plutôt la course au rapport efficacité / sobriété energétique !"

Ceux qui cherchent efficacité ou sobriété énergétique ne sont évidemment pas concernés par ces processeurs.

Mais tout le monde ne cherche pas cela. Certains cherchent la performance maximale. Certes, il y a plusieurs formes de performance maximale.

La performance maximale peut être multithreadée, auquel cas ces processeurs ne sont pas la solution.

Mais ceux qui cherchent la performance maximale monothreadée, et bien ils ont trouvé leur cheval à chevaucher.

Je ne suis pas preneur. Ce n’est pas mon jam. Je ne recherche pas la performance maximale. Mais je ne recherche pas non plus la sobriété maximale.

Je sais, c’est incroyable, chaque personne a ses propres idéaux en matière de processeurs. Heureusement je suis assis, j’aurais pu tomber.

Miaou.

avatar Bigdidou | 

@fte

« Ceux qui cherchent efficacité ou sobriété énergétique ne sont évidemment pas concernés par ces processeurs. »

Complètement.

Et à l’inverse Apple fabrique et vend essentiellement des ordinateurs portables où les intels un peu puissants deviennent très vite contre productifs, comme on l’a d’ailleurs vu avec la dernière génération de MacBook Pro Intel et le throttling massif qui pouvait littéralement anéantir ces machines (comme ce fut le cas pour la mienne, et de l’aveux de l’AppleStore).

Quand je vous comparer le M3 et ces Intel, ma lecture est qu’on compare de grosses tours PC et des ordinateurs portables (d’une autonomie de plus 20 heures qui plus est), ce qui n’a pas beaucoup de sens en termes d’usages.

Pour des machines portables, le M3 est un processeur que je pense de très loin sans équivalent, et de très loin, « en face ».

avatar fte | 

@Bigdidou

"Pour des machines portables, le M3 est un processeur que je pense de très loin sans équivalent, et de très loin, « en face »."

Le M3 est en effet un excellent processeur extrêmement efficace sans compromis majeur sur la puissance du CPU. Sur le papier.

Il n’a pas la logitèque qui m’intéresse cependant, tellement pas, donc absolument inutile, donc absolument abysmal.

avatar Bigdidou | 

@fte

« Il n’a pas la logitèque qui m’intéresse cependant »

Eh oui…

De mon mon coté, il n’a pas les logiciels que je fuis, ce qui lui donne une valeur inestimable à mes yeux :D

avatar melaure | 

Je suppose qu'une fois le support Intel totalement abandonné, on verra plus de logiciels. Mais il faut aussi qu'Apple fasse un effort sur sa marge. Les prix doivent baisser pour qu'il se vende plus de Mac.

avatar byte_order | 

@Bigdidou
> De mon mon coté, il n’a pas les logiciels que je fuis, ce qui lui donne une valeur inestimable
> à mes yeux :D

Juuq'à preuve du contraire, l'absence d'un logiciel attractif pour une architecture CPU donnée n'est pas contournable par notre seule volonté.
Tandis que la disponibilité d'un logiciel que l'on fuit pour une architecture CPU donnée, elle, est parfaitement contournable par notre seule volonté : il suffit de ne pas utiliser ce logiciel, sans pour autant devoir changer d'architecture.

Si vous parliez d'OS sous le terme "logiciel", l'architecture PC n'impose nullement d'utiliser Windows comme OS dessus, pas plus que l'architecture Apple Silicon impose forcément macOS (bien qu'elle ne facilite pas le support par d'autres OS, ceci dit, comme toute architecture particulièrement propriétaire).

avatar Bigdidou | 

@byte_order

Si tu te mets à discuter rationnellement de mes blagounettes, t’es pas sorti d’affaire ;)

avatar pocketalex | 

@fte

C'est ce qui fait la force de l'offre Apple laptop. Moins desktop, surtout en haut de gamme, on sera direct d'accord

Avec le M3Max, j'ai vraiment l'équivalent d'un laptop PC 'station de travail' (ou de gaming 😂 ), sauf que "équivalent" ne signifie pas que c'est le plus rapide, mais juste qu'il joue dans la même cour niveau puissance CPU, et un peu GPU
Les PC seront toujours à même d'offrir plus de puissance, enfin là où on en est c'est surtout niveau GPU, mais au prix de machines qui tiennent plus du transportable que du portable

Puissant mais pas aussi puissant que les grosses config PC, mais silencieux et à même d'offrir les performances sur de longues heures de travail sur batterie ... c'est ça l'offre Apple actuelle, et moi je trouve le deal correct
Ceux qui veulent la plus grosse, gagner 5 min de rendu au prix d'un bousin lourd et bruyant, ont pour eux une large offre de laptops PC et ainsi tout le monde est content.
En tout cas, Apple est crédible dans son offre, c'est l'essentiel

avatar fte | 

@pocketalex

"au prix d'un bousin lourd et bruyant"

J’ai un machin lourd et volumineux. 80 litres.

Et 11 ventilos Noctua.

Silence total bien que dentu tel le requin blanc.

avatar Bigdidou | 

@fte

« J’ai un machin lourd et volumineux. 80 litres.
Et 11 ventilos Noctua.
Silence total bien que dentu tel le requin blanc. »

Rhoooo.
C’est vrai qu’un beau PC (je blague pas du tout), ça a de la gueule.
Et une ouverture sur tellement de champs du possible, pour ceux qui savent (vraiment, et aucun doute te concernant) s’en servir, qui m’a toujours fait rêver.
Mais voilà, quand on a besoin d’une petite voiture sportive qui se faufile, un avion de chasse c’est trop compliqué et handicapant.
Je sais pas pourquoi rien que l’interface de base de Windows épuise comme ça aussi vite mon attention (enfin, le peu que j’en ai).
C’est pas faute d’avoir essayé, et à chaque fois, je dois abandonner au bout de quelques mois.
Beaucoup de gens qui ont des troubles de l’attention me disent la même chose : à croire que Steve Jobs était bourré de « dys- » aussi. Après tout, les OS d’Apple ont toujours été à la pointe pour le handicap, pourquoi pas ceux là, de façon moins mise en avant ? ;)

J’aimerais tellement pouvoir programmer des petites applications médicales. Faudra que je retente de m’y mettre un jour sur des apps mobiles, maintenant que j’ai un peu rééduqué ma mémoire de travail (et que j’ai droit à plus de Ritaline :D) et que je buggue moins sur ces tâches où il faut traiter beaucoup d’infos en même temps…
T’as l’ai de sacrément t’amuser à ça quand on te lis…
Je sais pas si ChatGPT peut être une aide comme pour les formules Excel ou VB : ça m’a vachement déverrouillé en m’aidant à comprendre ce que j’oublie ou shunte.
Après, je comprends bien qu’une app, c’est la cour au dessus.

avatar fte | 

@Bigdidou

"Je sais pas pourquoi rien que l’interface de base de Windows épuise comme ça aussi vite mon attention (enfin, le peu que j’en ai)."

J’ai beau avoir travaillé longtemps dans le domaine du design d’interface, je n’ai pas idée. (Petit mensonge.)

Car le temps passé dans l’interface de l’OS comparativement au temps passé dans l’interface de chaque application est minime, pour autant qu’on utilise son PC pour autre chose que déplacer des fichiers. Et encore, il y a des apps pour ça.

Adobe, Visual Studio, KiCAD, Todoist, Office, webs, SpeedCrunch, qu’importe, tout ça est identique sur Mac et sur PC.

C’est faux. J’ai une idée. La gestion des fenêtres est différente quoique similaire, et en particulier le passage de fenêtre à fenêtre. Si tu utilises plusieurs applications simultanément tout le temps, ça aura évidemment un impact sur l’usage général. Par exemple, je trouve que le passage d’une application et ses fenêtres à une autre applications et ses fenêtres est nettement plus agréable sur macOS, qui a une logique d’application prioritaire. Je trouve au contraire la gestion individuelle et en groupe des fenêtres beaucoup plus agréable sur Windows, en particulier les options de mosaïque et de redimensionnement, avec les menus intégrés à chaque fenêtre plutôt qu’en haut de l’écran. La logique est orientée fenêtres (ou document, si on assimile les deux). Et comme j’utilise en réalité beaucoup plus la deuxième logique que la première…

Je me demande donc si ca ne serait pas là une raison à ton inconfort.

"Beaucoup de gens qui ont des troubles de l’attention me disent la même chose : à croire que Steve Jobs était bourré de « dys- » aussi. Après tout, les OS d’Apple ont toujours été à la pointe pour le handicap, pourquoi pas ceux là, de façon moins mise en avant ? ;)"

Possible. La logique application que j´évoque plus haut est aussi une logique tâche. Un job à la fois, une barre de menus pour le job, plutôt qu´une mosaïque de fenêtres avec chacune un doc, une barre de menus. C´est sans doute aussi une façon d'organiser ses fenêtres et d´occuper l´espace écran.

"T’as l’ai de sacrément t’amuser à ça quand on te lis… "

J’ai toujours eu, pas que mais entre autres, une approche outil. Un ordinateur est un outil. Longtemps le Mac a été cet outil. Le système bien entendu, mais la machine aussi. Longtemps le Mac a été okay-ish sur le plan matériel. Jusqu’à ce qu’il ne le soit plus. Le tout soudé a été un premier gros clou dans le cercueil, l’anémie des cartes graphiques le deuxième gros clou.

Mon actuel outil est taillé exactement pour mes usages. Rien ne manque, rien de superflu, j’ai toutes les applications dont j’ai besoin… avec un système qui ne m’emmerde pas souvent. C’est la meilleure configuration que j’ai eue depuis mon ZX81.

Bref, il fait le job excellemment. Donc je suis content, très, oui.

avatar Bigdidou | 

@fte

« Un job à la fois, une barre de menus pour le job »

Oui ben c’est ça, alors.
C’est la clé pour les troubles de l’attention, effectivement.
Un job, ça va, 3 jobs, bonjour les dégâts ;)
Y a forcément celui du milieu qui est éjecté de la mémoire de travail, et boum…

avatar FearOzz | 

"Est-ce que cela présente un intérêt alors que l'on fait plutôt la course au rapport efficacité / sobriété energétique !"

Allez donc dire ça à certains de mes clients qui font tourner AutoCAD, un logiciels désespéremment mono coeur ou presque (je dis presque, parce que parfois, dans certaines conditions, on peut espérer deux coeurs qui fonctionnent en même temps)...
Du coup pour avoir des augmentations significatives de performance, il faut viser des augmentations massives de fréquence.
Je vous assure que s'ils pouvaient acheter des machines sobres énergétiquement, ils le feraient. Sans possibilité de le faire, ils sont quand même contents que Intel sorte de tels monstres pour travailler dans de bonnes conditions.

avatar marc_os | 

@ FearOzz

> Allez donc dire ça à certains de mes clients qui font tourner AutoCAD

Dans le milieu du bois d'où vient ma mère, on disait qu'on reconnaissait les bons ouvriers à leurs outils... Cette parole est à mon sens vraie dans tous les domaines.

avatar valcapri | 

Quand je vois la capacité des processeurs « anciens » sur des serveurs qu’ils peuvent déjà prendre. On pousse plus sur la RAM, le GPU (qui a dit « IA » ou encoder via le GPU) et les I/O que sur le CPU. Même en faisant tourner 10 machines virtuelles.

Pour l’encodage vidéo, je suis toujours ébahi par la vitesse des Mac Apple Sillicon en h264 et h265. Et pour le développement aussi. Vivement que cela arrive dans les serveurs (Les premiers Ampère sont pas mal, mais ce n’est pas encore au niveau).

avatar Scooby-Doo | 

@valcapri,

Les processeurs Ampere c'est plus pour le transactionnel qu'ils sont performants.

Pas pour du calcul brut il me semble.

C'est pourquoi ils sont équipés de beaucoup de cœurs.

GPU, NPU ou TPU pour l'IA.

👌

« Pour l’encodage vidéo, je suis toujours ébahi par la vitesse des Mac Apple Sillicon en h264 et h265. »

La présence d'un NPU sur SoC peut expliquer cet exploit !

Pendant ce temps, combien de critiques à l'encontre de Apple, sa direction vieillissante et hasardeuse, peut-on lire ici et là ?

😎

avatar valcapri | 

@Scooby-Doo

Je suis justement fan du système sur puce Apple, et qui pourrait très bien fonctionner sur des serveurs justement et dans le cloud. Et Apple aurait une super carte à jouer là dedans. D’abord pour elle-même aussi, car elle utilise beaucoup le cloud et posséder sa propre flotte de serveurs avec son propre système sur puce et son propre OS, lui permettrait un contrôle totale qu’elle aime tant. Et cela lui permettrait de vendre encore plus ses services.

avatar koko256 | 

@valcapri

Pour l'IA on attend surtout les NPU qui vont bien réduire la consommation (ou augmenter les puissance).

avatar MrTom | 

« C'est 200 MHz que le précédent modèle « S » (le Core i9 13900KS) ou le Core i9 14900K. »

Il manque des mots dans cette phrase je crois.

avatar jb18v | 

en passant par l'application on peut signaler la faute ou la coquille ;)

avatar Scooby-Doo | 

@MrTom,

C'est corrigé il me semble !

😁

avatar ⚜Dan | 

Avec 200w le cpu lol
Quand t’es mauvais tu fait avec ce que t’as.

avatar Scooby-Doo | 

@Dan,

Je crains que cela ne soit pire :

« Les premiers tests, relayés par Igor's Lab, montrent d'ailleurs une consommation moyenne en charge de 330 W et une consommation maximale de 410 W. »

330 W de moyenne et 410 W en pic !

Je vais remplacer ma plaque à induction par un processeur Intel !

😁

avatar ⚜Dan | 

@Scooby-Doo

😂😂😂

avatar Moebius13 | 

Il est vrai que ce processeur est un peu vain.

En revanche il est aussi vrai que si l’on s’équipe d’un gros GPU comme c’est mon cas (RTX 4090), si l’on veut pouvoir l’exploiter pleinement en jeu notamment et ne pas se retrouver CPU limiter, il faut aller taper du côté d’Intel et des 13900k et 14900k.

Alors oui je sais il y a aussi les AMD 3D XD mais sur un panel de 60 jeux testés, Intel est globalement devant et surtout sur le 1% low et la stabilité du framerate, ce qui est important, et ça s’explique parce que les jeux sont mieux optimisés pour les CPU Intel, et ce même quand le jeu annonce qu’il a été développé en partenariat avec Nvidia.

Sur Cyberpunk 2077 il y a par exemple une grosse domination des CPU Intel sur les CPU AMD de même gamme.

Et quand on joue en 4k, tous détails au maximum ou qu’on veut jouer en 1080p et tirer le plus de fps possible (je pense à ceux qui font du compétitif), un 13700k vient deja brider les pleines performances d’une RTX 4090, donc pour mon usage j’ai hélas besoin de ces CPU qui consomment énormément et pour refroidir ces bêtes j’ai sorti l’artillerie lourde en m’équipant d’un AIO de 420mm !!!

La problématique d’Intel c’est non seulement qu’ils ont beaucoup de mal à réduire leur finesse de gravure depuis des années et n’ont presque plus qu’une seule réponse : Augmenter les fréquences et le TDP.

Cependant le problème, en tout cas pour les jeux, vient aussi des développeurs puisque 90% des jeux qui sortent fonctionnent au maximum sur 4 cœurs en parallèle et profitent de fréquences très élevées en single core.

On a carrément des jeux qui fonctionnent mieux si on va dans le BIOS désactiver les cœurs économes du CPU pour ne laisser en fonction que les cœurs performances.

Si les développeurs optimisaient correctement leurs jeux, un 5950X avec ses 16 Cœurs et 32 Threads, seraient toujours en mesure de tirer pleinement parti des plus gros GPU.

Intel est aussi en grande phase de transition sur son architecture qui est vieillissante et ils ne sortent plus que des refresh et de légères retouches pour rester en avance sur AMD (de peu).

C’est sur le point de changer, la génération 15th, va notamment abandonner l’hyperthreading qui a plus de 10 ans, et devrait sortir en 2025 et ils vont enfin aussi évoluer sur la finesse de gravure, ce qui risque de constituer au final un sacré bond en performances.

Seule problématique qui m’insupporte chez Intel et qui m’empêchera de faire ce bond : Le changement de Socket ! Ils passent leur temps à changer de Socket toutes les deux générations, ce qui fait qu’il faut aussi racheter une nouvelle carte mère !!!

En parallèle on a AMD qui va sortir fin 2024 ou avant le CES 2025, sa génération 9000 qui restera toujours sur plateforme AM5 et en parallèle ils continuent à sortir des CPU sur plateforme AM4, rien que pour ça je leur tire mon chapeau et si ils étaient aussi performants dans tous les jeux qu’intel ce serait de l’AMD pour moi.

Il y a aussi la problématique de la gestion de la DDR5 par AMD, il semblerait que les CPU AMD, même sur les cartes mères les plus haut de gamme, aient du mal à gérer la RAM la plus rapide actuellement (par exemple impossible de faire tourner de la Ram à 7000mhz ou 7200mhz contrairement à Intel en Z790, et ça a un impact réel en jeu, ça n’est pas que du marketing pour le coup).

Mais pour en revenir à ce 14900KS, il n’a aucun intérêt, vous prenez un 14900k sur Amazon à 630€ et vous pouvez l’OC de 200Mhz et vous aurez le même résultat et vous pourrez jouer sur les tensions pour que ça consomme moins en plus.

Même un 13900k fera l’affaire, non seulement il consomme moins mais en plus la différence avec un 14900k ne dépasse jamais 10%.

Cependant ça faisait longtemps que ce qui s’annonce sur le front des CPU n’était plus aussi excitant avec de gros changements en perspective sur 2025 des deux côtés, et j’attends maintenant de voir de qui est prévu côté GPU par Nvidia et AMD.

avatar Dimemas | 

je suis assez d'accord avec ce résumé sauf sur un point :
"Cependant le problème, en tout cas pour les jeux, vient aussi des développeurs puisque 90% des jeux qui sortent fonctionnent au maximum sur 4 cœurs en parallèle et profitent de fréquences très élevées en single core."

c'est très 2010 comme avis car les jeux qui sortent depuis au moins 5-6 ans sont optimisés hexacore maintenant ;)
mais je suis assez fan comme toi de ce que fait amd sur la durabilité de leur socket et aussi de leur niveau gpu intégré avec la future fournée

tu peux même avec des séries moins gourmande de la même puce arriver au même résultat figure toi, j'ai vu beaucoup d'articles sur le sujet sur cowcotland

moi j'ai hate que nvidia se lance sur le cpu, ça bruite de plus en plus

avatar Moebius13 | 

@Dimemas

Malheureusement ils sont ratés ceux qui exploitent correctement l’hexacore, surtout sur les deniers portages consoles vers PC qui sont pitoyables.

On peut constater que la fréquence fera toujours la différence, j’en ai fait l’expérience, pendant un temps je suis passé d’un 5800X à un 5950X parce que j’avais besoin de beaucoup de cœurs pour des tâches précises.

Et bien en jeu mon 5800X s’en tirait bien mieux alors qu’il avait moins de cœurs mais une fréquence plus élevée.

avatar byte_order | 

@Moebius13

Un jeu vidéo fait essentiellement coté CPU la gestion d'un modèle de données, la partie calcul en elle même n'est pas si majeure que l'on pense. Hors gérer un modèle de données avec de plus en plus de threads en parallèle, cela augmente le risque de contention, c'est pas linéaire.
Une façon de compenser cela est en effet d'avoir des threads qui s'exécutent à une fréquence CPU plus élevée (car cela réduit la taille de la fenêtre de contention).

Une autre façon c'est de revoir la conception du modèle de données afin que sa gestion par différents threads puissent se faire avec le moins de contention entre eux. Ce qui n'est pas du tout une mince affaire.

Enfin, ne pas oublier que les développeurs de jeu vidéo doivent cibler les capacités disponibles sur le matériel possédé par une majorité de leurs potentiels clients.
Tout le monde ne dispose pas d'une machine avec 16 coeurs performants dispo, et encore moins 32. C'est pour cela qu’aujourd’hui on est plutôt encore entre 4 et 8 threads intensifs max dans la plus part des jeux (y'a souvent d'autres threads par ailleurs, mais nettement moins critiques en terme d'intensité des traitements qu'ils doivent réalisent).

avatar Krysten2001 | 

@byte_order

merci la fragmentation…

Quel gaspillage si on ose investir dans un PC pour jouer 😕

D’ailleurs on le voit avec le jeu Warzone mobile, le jeu est beaucoup mieux chez apple (j’englobe iOS et iPadOS) alors que sur android c’est une catastrophe et doivent attendre des patchs…

Et même pas que pour les jeux, toutes les apps entre ces deux systèmes.

Même chose sur PlayStation, les gens sont plus stables car une seule sorte de console.

avatar fte | 

@Krysten2001

"Quel gaspillage si on ose investir dans un PC pour jouer 😕"

Jouer ne veut rien dire. Jouer couvre une très large palette de profiles d’utilisation des capacités CPU ou GPU ou les deux.

Si on configure un PC de jeu, on le configure en pensant aux besoins des jeux spécifiques qui intéressent le joueur. Il n’y a gaspillage que si ce dimensionnement est irréfléchi et inapproprié, ce qui est j’en conviens souvent le cas.

avatar marc_os | 

@ Moebius13

> c'est très 2010 comme avis car les jeux qui sortent depuis au moins 5-6 ans sont optimisés hexacore maintenant ;)

Avoir du code parallèle optimisé pour un nombre fixe de cœurs, c'est totalement obsolète. C'est peut-être "normal" sur "PC", mais c'est obsolète.
Tous les cœurs disponibles devraient pouvoir être utilisés, quelque soit leur nombre. Du code parallèle moderne tire le meilleur de tous les cas de figure.

avatar Scooby-Doo | 

@Moebius13,

Un énorme merci pour vos explications argumentées et factuelles !

En plus d'être très bien écrit, sans faute, on apprend certains détails de votre retour d'expérience.

Effectivement, la problématique du changement de socket n'est pas à négliger aussi.

Et vos recommandations sont notées.

👌

avatar Moebius13 | 

@Scooby-Doo

Je vous remercie infiniment pour votre commentaire qui fait chaud au cœur et je me dis que je ne prends pas le temps de commenter pour rien à partir du moment où cela peut servir à une seule personne.

Si vous avez des questions sur un sujet en particulier et que vous pensez que je peux y répondre, n’hésitez surtout pas à me contacter, je me ferais un plaisir de vous apporter mon aide si c’est dans mes cordes.

Merci encore pour votre gentil commentaire (même si je pense que malheureusement il doit y avoir des fautes d’orthographe, soit par ignorance et inattention de ma part, soit parce que le correcteur fait des siennes 😅)

avatar Scooby-Doo | 

@Moebius13,

J'ai effectivement besoin de conseils concernant les ordinateurs actuels.

À vous lire, si j'ai bien compris vos besoins, c'est pour du jeu vidéo avec une qualité / fluidité d'affichage au top.

Ma problématique est toute autre mais en fait très proche de vos exigences.

Je suis malheureusement tombé du côté obscur de la force : je crains d'être dans la catégorie Power Use et depuis fort longtemps.

Au départ j'avais des stations de travail, puis je me suis construit des ordinateurs de toutes tailles ou puissance.

Traitements audios, vidéos, images de synthèse, intelligence artificielle, etc.

Que des trucs qui prennent un temps fou à rendre !

Par un incroyable hasard, quelle configuration vous me recommanderiez pour ce faire ?

Je pensais que AMD Threadripper serait une bonne base mais à vous lire, je sens que vous aimez plutôt le Intel i9-14900K.

Une 4090 ou une 4070 Plus serait pas mal non plus.

Quelle carte mère ?

Quelle mémoire et quelle quantité pour que le système ne rame pas…

Quel boîtier et quel système de refroidissement le plus silencieux ?

Quelle alimentation ?

Bref, c'est quoi pour vous la station de travail fait main d'aujourd'hui ?

À vous lire…

😇

avatar pocketalex | 

Je m'associe à Scooby Doo : c'est du commentaire de 1er plan 👍🏻

avatar valcapri | 

@Moebius13

Je possède justement un 7950x3D et une ASUS Nvidia GeForce RTX 4080 OC Tuf Gaming. J’ai pris 96 Go de RAM 6600 MHz CL32 de Corsair et j’ai zéro problème de RAM et en DOCP sur la carte ASUS ProArt X670E Creator.

Et j’ai vu des bench avec l’OC sur des mémoires de plus de 10600 MT/s sans azote avec de l’AMD Ryzen 8700G.

Le seul problème d’AMD est la double die avec une communication interne. Mais bon, chez Intel les Core E et P sont « problématiques » aussi. Mais bon, les fréquences d’Intel plus élevée peuvent aider dans les jeux.

Pages

CONNEXION UTILISATEUR