Intel revient à ses vieux travers avec les Core de 14e génération

Pierre Dandumont |

Une des raisons probables de l'abandon d'Intel par Apple dans les Mac vient notamment du manque d'innovation et du renommage de ses puces. Et avec les Core de 14e génération pour les PC de bureau, Intel semble tomber dans les mêmes travers qu'à la fin des années 2010.

Petit rappel : Intel a lancé l'architecture Skylake en 2015 avec les Core de 6e génération, qui ont fait les beaux jours des premiers MacBook Pro avec une Touch Bar. Et Intel a gardé la même architecture pour les Core de 7e, 8e, 9e et 10e génération dans les puces pour PC de bureau, avec quelques variantes (un peu) améliorées pour les PC portables avec la 10e et la 11e génération. Pour tenter de faire passer la pilule et aussi arriver à sortir une « nouvelle » génération tous les ans, Intel a donc augmenté le nombre de cœurs et la fréquence au fil des années, avec un résultat évident : une hausse très forte de la consommation et des gains parfois assez faibles.

Pour vendre ses Core, Intel mise sur des boîtes avec des cadeaux, comme un boîtier en plastique métallisé.

Après une 11e génération un peu hybride (il s'agissait en simplifiant d'un cœur pensé pour les PC portables gravé moins finement), l'arrivée de la 12e génération (Alder Lake) fin 2021 semblait amener de la nouveauté : une nouvelle architecture plus rapide et des cœurs basse consommation… mais encore une consommation mal maîtrisée.

Malheureusement, ça ne s'est pas bien passé : la 13e génération est une évolution (très) timide de la 12e, avec un peu de mémoire cache en plus, plus de cœurs et une fréquence plus élevée (oui, l'histoire se répète). Et la future 14e génération, elle, ne devrait pas se démarquer : attendue dans très peu de temps, elle ne devrait rien amener de neuf.

Comme l'explique Tom's Hardware, Intel se contenterait de quelques cœurs basse consommation en plus sur certains CPU, d'une fréquence plus élevée… et d'une consommation encore en hausse. Par ailleurs, la société ne s'en cache pas vraiment : cette 14e génération porte le nom de Raptor Lake Refresh, c'est-à-dire un renouvellement de la gamme Raptor Lake (la 13e génération).

La suite arrive tout de même

Cette 14e génération semble donc juste être là uniquement pour occuper le terrain et faire acte de présence. Pour la suite, Intel a visiblement deux idées : Meteor Lake, dont nous avons parlé récemment, et Arrow Lake. La première des deux architectures vise essentiellement les PC portables avec des optimisations sur la consommation, et la seconde devrait équiper la 15e génération de Core avec — enfin — une réduction de la consommation.

Intel dévoile Meteor Lake, les Core de prochaine génération qui veulent lutter contre les puces Apple

Intel dévoile Meteor Lake, les Core de prochaine génération qui veulent lutter contre les puces Apple

Il faut enfin noter que la stratégie d'Intel consiste tout de même à lancer une nouvelle génération par an, même s'il n'y a rien de nouveau. Apple, en face, semble aller moins vite, au moins dans les Mac : le M1 date de 2020, le M2 de 2022 et la puce M3 se fait attendre. Par contre, les puces A sont réglées comme une horloge, avec une nouvelle version chaque année dans les iPhone.

Tags
avatar Ukualai | 

Quel est l'intérêt de cet article en dehors de montrer toute la haine de l'auteur envers Intel?

Car au final Apple avec ces processeurs ne fait pas différemment, d'une génération à l'autre, il augmente la fréquence et donc la consommation de ces puces.

avatar Fredouille14 | 

@Ukualai

faut pas y voir de la haine mais se dire qu'Apple a fait le bon choix avec ses puces.

avatar Pierre Dandumont | 
Y a aucune haine, en fait. Et non, Apple ne fait pas la même chose : y a un changement d'architecture chaque année. Intel, on est quand même passé de ~65 W à pas loin de 300 W... sans changer les bases.
avatar dujarrier | 

@Pierre Dandumont

C’est vraiment désolant de voir l’augmentation constante de la consommation d’énergie des processeurs Intel, pour pouvoir justifié une augmentation de performance.

Les processeurs a base de uniquement de transistors en silicium semble atteindre ses limites : on a probablement besoin de nouvelles innovations de rupture comme la spintronique pour réellement innover et faire autrement pour réussir a fortement diminuer la consommation

avatar Ukualai | 

C'est de la mauvaise foi de ne pas voire l'augmentation des fréquence des puces Apple et donc de la consommation qui en découle.

avatar Pierre Dandumont | 
Mais non. La différence de consommation entre M1 et M2 est par exemple très faible, et la fréquence aussi (~300 MHz). Pour un gain bien plus large que cette différence. Chez Intel le gain en perfs de la 6e à 10e, c'est mécaniquement la fréquence, avec une augmentation proportionnellement bien plus forte.
avatar Sillage | 

@Pierre Dandumont

Le ton donné n’est certes pas de la haine, mais du dédain ! 😔

Il ne faut pas oublier une chose, Intel pourrait faire bien mieux si il ne fallait pas grader une certaine rétro compatibilité des instructions.

Là où Apple est parti d’une feuille blanche. Apple a l’avantage de faire le soft en accord avec leur hardware. La rétro compatibilité, ils n’en ont pas besoin.

Intel faisant de mauvais choix ? Il y a aussi des contraintes comme expliques ci-dessus. Et le pire, c’est que ces dernières faisaient parti d’un article de MacG une fois.

Mais au final, Apple a fait fort avec leur puce M1, changer complètement d’architecture et jeux d’instructions. Mais maintenant c’est M1 vers M2. Faire une version Pro et Max, bah, on double le chip, pourquoi pas ?

L’augmentation des performances amène aussi une plus haute consommation. Est-ce que Apple vit du succès du M1 bien implanté dans les cerveaux de ses consommateurs fidèles ? 🤷‍♂️

avatar Pierre Dandumont | 

Au mieux, je suis blasé, parce que mon boulot a été de les tester, les différentes générations (de la 1re à la 12e, et les Core Duo avant).

Mais sinon Apple a les mêmes contraintes de compatibilité, vu qu'ils doivent respecter le jeu d'instructions d'ARM.

Et accessoirement, une hausse de performances n'amène pas nécessairement une hausse de la consommation, en fait. Une nouvelle architecture peut faire le contraire (cf. AMD). C'est les choix d'Intel de ne pas toucher aux bases (ni à la gravure) qui font que ça augmente. Et exponentiellement.

avatar Sillage | 

@Pierre Dandumont

« Au mieux, je suis blasé, parce que mon boulot a été de les tester, les différentes générations (de la 1re à la 12e, et les Core Duo avant). »

J’imagine. Mais les résultats sont une chose. Comprendre pourquoi c’est comme ça, en allant à la radine des choses en est une autre.

« Mais sinon Apple a les mêmes contraintes de compatibilité, vu qu'ils doivent respecter le jeu d'instructions d'ARM. »

Les jeux d’instruction x86, si je me souviens bien de l’article de MacG, font que c’est un boulet à tirer derrière. ARM n’a pas un tel boulet. Ce qui a permis à Apple de façonner ce M1.
Mais il faudrait retrouver cet article. Je trouve qu’il expliquais bien, et était un peu plus impartial et pas émotif.

« Et accessoirement, une hausse de performances n'amène pas nécessairement une hausse de la consommation, en fait. Une nouvelle architecture peut faire le contraire (cf. AMD). C'est les choix d'Intel de ne pas toucher aux bases (ni à la gravure) qui font que ça augmente. Et exponentiellement. »

Ce n’est pas faux. C’est vrai. Est e que l’on a des chiffres pour étayer le progrès et puissance nécessaire chez Apple ?
Est-ce que le M2 consomme moins que le M1 ? Ou la même chose ?

Pour conclure, c’est certes triste que Intel (et AMD) n’arrivent pas au même niveau que les puces Mx de Apple. On ne peut que espérer un jour que ça progresse dans le bon sens. Et peut-être pourrons-nous dire au revoir à certains vieux boulets. Je ne suis pas connaisseurs du domaine. Donc pas vraiment sur de ce que ça impliquerait de changer.

Apple a pu changer de type de CPU assez facilement, ils font le hardware et le software. Et avec la manne d’utilisateurs, ils ont réussi à convaincre des éditeurs de mettre à jour leurs applications pour cette nouvelle architecture.

Dans le monde PC, il y a pleins d’acteurs. Microsoft pour le plus gros, mais tout le monde Linux aussi, et no creux sont les serveurs qui tournent sur du Linux.
Entamer une transition chez Intel et AMD, est-ce que ça pourrait se faire ?
Idée d’article peut-être.

Cordialement.

avatar Adodane | 

@Pierre Dandumont

Apple n'a pas viré le jeu d'intention 32 bits arm tant au niveau hardware que software ? Parce que si ce n'est pas de la liberté, je je sais pas ce que c'est ...

Les processeurs PC de leur côté doivent se trimballer le hardware pour décoder les instructions 32 bits ( et même 16 bits ), des instructions SIMD legacy, des failles découvertes avec les patchs réduisant les performances, des finesses de gravures dépassées...

Et pourtant c'est les processeurs les plus rapides du monde !

avatar XiliX | 

@Ukualai

Parce que parmi les utilisateurs Apple, il y en a qui sont aussi utilisateurs Intel, contrainte ou pas.

Perso je suis obligé d'avoir en parallèle un ordinateur WinTel.
C'est toujours inintéressant de savoir quelle génération de CPU à prendre lorsque je dois renouvelle mes matériels

avatar pocketalex | 

@Ukualai

Euh … tu peux nous expliquer en quoi cet article on ne peut plus factuel est « haineux » ?

Tu es plus en CM2 Ukulalai, c’est fini le « tu critiques donc tu aimes pas », il faut grandir un peu. Cet article ne fait que relater la position d’Intel et ses choix technologique, et un peu aussi l’impasse dans laquelle la marque est menée.

Les core i récents haut de gamme consomment 300W, c’est pas « méchant » de dire ça, c’est factuel. N’importe quelle tour PC aujourd’hui doit être dotée d’un énorme watercooling pour fonctionner, regarde les vidéos de montage tu verras, ou fait joujou avec un configurateur (LDLC, Materiel.net, …) le bloc de watercooling est un passage obligé, et un petit 100 à 200€ de plus sur la note.

Après, si on se concentre juste sur les performances, un bon core i9 13900K est un petit cran au dessus du M2 Ultra en bench solo et bench multi, pour situer grosso modo.
On peut donc monter une GROSSE tour PC qui sera du niveau d’un Mac Studio (et plus en GPU, forcément avec les GPU dédiés nVidia et AMD) pour bien moins cher, et presque la moitié du prix si ‘d’un coté on prend le Mac Studio avec de belles options, et de l’autre on rogne bien sur la tour PC

Le PC a l’avantage de la performance pour moins cher et ça tu le liras dans tous les forums, mais faut vouloir se taper une belle grosse tour énergivore là où Apple propose un petit cube silencieux et facilement déplaça le ou transportable, et qui consomme très peu… on a rien sans rien

Si on se tape complet du volume, du bruit et de la conso - et du design - pour une tour, ce qui peut à la rigueur se concevoir chez certains, la donne est largement différente concernant les laptops

Et les laptops, c’est pas inutile de le rappeler, c’est le GROS des ventes dans l’informatique. Et dans ce domaine, la solution Apple permet des machine fines et légères, relativement performantes et ultra autonomes pour les modèles grand public, mais surtout des bécanes pas trop épaisses, pas trop lourdes et TRES puissantes en tout pour les stations de travail tout en étant aussi, à pleine charge, très autonomes.
5 à 7h pour ma part en session gros topshop+after à fond.
Mon MBP 2019 (core i7 / 64 /2To / Radeon pro le + haut de gamme) tenait environ 1h30 à 2h max max max sur les mêmes usages.
Les stations de travail portables PC, c’est des bousins épais, lourds, qui ventilent de taré avec un bruit d’avion au décollage, et qui ne fonctionnent qu’une petite heure et demi hors prise de courant (pour un appareil portable, ça peut potentiellement la foutre mal) … ou baissent leur performances pour tenir un vague 3-4h

avatar Roovy | 

Il faut nuancer , le niveau de consommation maximale sur un PC desktop haut-de-gamme DIY reste paramétrable et heureusement car aussi bien Intel et AMD que les constructeurs de cartes-mères se livrent à une course à l'échalote en mode no limit sur la consommation pour tenter de grappiller le moindre pourcent de performance dans les benchmarks.
En réglant simplement un niveau de PL (Power Limit) inférieur chez Intel ou avec le mode ECO chez AMD , on peut baisser la consommation maximale de 30% en perdant à peine 5% de performance et on peut encore améliorer la chose en se penchant sur l'undervolting.

avatar Pierre Dandumont | 
C'est complètement fallacieux comme argument : ce n'est pas à l'utilisateur de devoir le faire. Plus le fait que si on achète un 13900K par exemple, c'est un peu bête de le descendre aux perfs d'un modèle pas K pour consommer moins.
avatar Roovy | 

Justement , on peut considérer la chose autrement : le principe des modèles "K" est d'être overclockables ; en 2011 , à l'introduction pour la première fois de ces modèles "K" sur Sandy Bridge , ceux-ci avaient la même fréquence que les modèles non K à numérotation équivalente , c'était donc à l'utilisateur de procéder à l'overclocking pour gagner en fréquence vis-à-vis des modèles non K et il y avait alors une réelle marge à ce niveau : un i7-2600 et un i7-2600K présentaient les mêmes fréquences de base et turbo (3.4 - 3.8 GHz) et le modèle K pouvait atteindre entre 4.5 et 5 GHz voire un poil plus pour les tout meilleurs exemplaires.

Aujourd'hui , un modèle K a déjà de base une fréquence plus élevée que le non K , avec une marge d'overclocking assez faible et une consommation qui s'envole ; du coup il n'est pas aberrant de considérer qu'il est en quelque sorte vendu déjà overclocké d'usine.

Autrement dit , auparavant on achetait un modèle K pour l'overclocker et il y avait pas mal de fréquence supplémentaire à aller chercher quitte à consommer nettement plus , alors qu'aujourd'hui on achète un modèle K qui est déjà fortement poussé en fréquence et c'est surtout sur la consommation qu'il y a de l'optimisation à faire.

avatar Adodane | 

@pocketalex

Oui ça peut consommer 300W mais au maximum, donc difficilement atteintable en usage courant ou le processeur Intel sera au ralenti , mais pour un bench CPU oui. Une tour bien équipé niveau processeur sera aussi bien équipée niveau GPU ça va de soit, donc c'est plutôt la carte graphique qui va monter en puissance.

Et puis une tour pc bien équipée n'est pas aussi performante qu'on mac studio, elle est 10 fois plus rapide, pour un rendu blender par exemple.

Après si on n'est pas pressé on peut prendre un mac studio...

avatar yod75 | 

@Ukualai

Il y a des gens humiliés ? Des blessés ? Des morts ? Des menaces ?

Tu veux féliciter Intel ? Vas y, ne te gènes pas ! Mais fais l'effort d'un minimum d'argumentation.

De mon côté ce que je vois, c'est que le portable flambant neuf de mon bureau ne vit pas une journée sans prise électrique à côté. Et l'annonce d'Intel sur la prochaine génération ne m'apporte qu'une certitude : ça ne changera pas.
Quand près de 90% des pc sont des portables, stagner au niveau consommation est une grosse tare. En outre, l'autonomie impacte la durée de vite des batteries : 2 fois moins d'autonomie c'est 2 fois plus de cycles pour une durée équivalente d'utilisation, donc une vie de la batterie réduite de moitié.
Intel est passé à côté du marché des smartphones ; à stagner ainsi il se fera éjecter de celui des pc. Ce n'est pas de la haine, juste un raisonnement logique

avatar Mrleblanc101 | 

@Ukualai

Rappeler qu'Intel vient tout juste de lancer sa 14e génération qui aurait été dans un Mac si Apple n'avais pas choisi la voie d'Apple Silicon qui fait le renouveau du Mac avec enfin des Mac silencieux, froid et bien plus puissant

avatar the_optimist | 

>Ukualai
+1
en plus ils vont mettre une fessée en single core aux macs hélas

avatar Ingmar97432 | 

@the_optimist

D’ailleurs n’y connaissant rien en prog ni fonctionnement soc, je ne comprends pas pourquoi une appli ou un appel de fonction peut « encore » se faire en single core et non pas en parallèle pour gagner du temps/puissance? Qqun peut m’éclairer?

avatar Pierre Dandumont | 
@the_optimist : c'est globalement pas le cas. Un A17 est très proche d'un Core i9 et largement devant tous les autres en single core (et avec 2 GHz de moins)
avatar the_optimist | 
avatar Adodane | 

@Pierre Dandumont

Sur geekbench ! 😅🤣🤣

avatar the_optimist | 

le scores sous geekbench où le m1 mettait une raclee a tout le monde ne meritaient pas alors tant de suspicions

avatar Pierre Dandumont | 

@ingmar92110 : parce que pleins de tâches sont fondamentalement simples. Si tu charges une page dans un navigateur, tu ne peux pas vraiment découper en petite tâches, vu qu'elles sont interdépendantes. Donc plus tu vas vite en single core, plus ça va aller vite.

Découper les tâches, ça implique de pas avoir trop de dépendances (par exemple, faut que les données arrivent pour les afficher) et que le découpage ne prenne pas trop de temps. Y a pleins de trucs ou si tu découpes trop, tu ralentis. Typiquement, les moteurs 3D se contentent bien de 8 coeurs par exemple, quand tu peux encoder en vidéo avec nettement plus parce que les blocs sont pas (trop) dépendants l'un de l'autre.

avatar lapomme | 

@Ukualai
Perso j’attends l’équivalent Intel du MacBook Air M2 en fanless pour contredire l’auteur de l’article.
Encore plus dans une tablette…

avatar Pierre Dandumont | 

C'est peu probable en l'état. Même avec Meteor Lake.

Même avec un bon gain sur l'efficacité, Intel reste loin derrière sur ce point, et en gros, faut ajouter 2 GHz pour avoir les perfs en single core. Par contre, ils peuvent faire des trucs avec plus de coeurs dans le même format, mais avec de l'actif.

avatar Ingmar97432 | 

@Pierre Dandumont

Merci Pierre pour la réponse rapide claire et simple!!

avatar Artefact3000 | 

@Pierre Dandumont

Et comparé à AMD?

avatar Mrleblanc101 | 

@lapomme

Tu risque d'attendre toute ta vie

avatar Mrleblanc101 | 

@lapomme

Tu risque d'attendre toute ta vie

avatar ian38 | 

Merci pour cet article qui rappelle que ces saletés de proc. Intel consomment autant qu’un grille pain (j’exagère un peu) et bouffent leur batterie en 3 ou 4h max, la ou le moindre Mac tient 8 ou 10h.

(Mon PC taf utilisé un i5 11eme génération qui est enfin potable et ne déclenche pas son ventilo H24 comme son prédécesseur)

avatar Sillage | 

@ian38

Des fois, il faut aussi enlever la poussière accumulée qui bouche le radiateur.

Un vieux PC portable Dell (Core 2Duo, ça date), j’avais ou enlever un coussin de 1cm. Magique, le ventile n’avait plus besoin de tourner.

Avec le temps, les laptops accumulent de la poussières à l’intérieur. Il y a pleins d’ouvertures. Et quand l’air passe plus, ça mouline.

avatar ian38 | 

@Sillage

Ça avait été fait (aspi et soufflette) ! Il avait commencé à ventiler au bout de 6 mois, le support info avait déjà patché la machine pour limiter sa puissance et donc sa chauffe et la rendre plus stable… j’ai tenu 18 mois comme ça avant de réussir à avoir un nouveau PC.

avatar Sillage | 

@ian38

Aspi et souflette. Pas sur que ce soit suffisant.

Quand il y a un coussin, c’est assez compact. Rien ne vaut un démontage.

Ça me fait soucis pour mon surface laptop studio, ça ne se démonte pas dans abîmer le boîtier. (Enfin, pas évident).
Dell était bien plus simple pour ça.

avatar dujarrier | 

Pour les particuliers, je préfèrerait vraiment que Intel (et Apple) décident pendant 2 ou 3 ans, de se focaliser sur des innovations de rupture dont l’objectif serait de diminuer très significativement la réduction de le consommation d’énergie (5x à 10x moins), si possible en améliorant la latence (en utilisant de la mémoire Non-Volatile type MRAM).

Le problème, c’est que vu que dans la majorité des testeurs et des benchmarks mettent surtout en avant le gain en performance comme élément principal qui justifie l’achat d’une nouvelle génération de processeur, cela n’incite pas Intel et Apple a en faire LE critère principal d’amélioration (mais un élément plutôt secondaire). Cela ne serait pas rentable pour eux.

Par exemple, pour le processeur Apple M3, moi je prefererais un processeur aux performances similaires au Apple M1, mais qui consommerait moitié moins, et même 3x ou 4x moins…

Ou bien je me contenterais tout a fait d’un A17Pro dans un Macbook Air avec 50% d’autonomie supplémentaire…

avatar Ingmar97432 | 

@dujarrier

+1

avatar XiliX | 

@dujarrier
"Par exemple, pour le processeur Apple M3, moi je prefererais un processeur aux performances similaires au Apple M1, mais qui consommerait moitié moins, et même 3x ou 4x moins…"

C'est plus complexe, car ça dépend énormément du type de flow de l'utilisateur.
Ceux qui font des traitements nécessitant des calculs vont vouloir plus de performance tout en consommant pareil, voire légèrement en dessous que la génération précédente

avatar dujarrier | 

@XiliX

Oui je comprends bien, c’est le problème.

Bien entendu, avoir tjrs plus performance ouvre de nouvelles options et peut permettre de gagner du temps, mais à titre personnel (et peut être la plupart des utilisateurs de Macbook Air), je préfèrerais vraiment avoir beaucoup, beaucoup, plus d’autonomie (au moins 2x a 3x plus), quitte a avoir des performances un peu en retrait

ex: un Apple M1 mais gravé en Intel 18A pour fortement diminuer la consommation, sans augmentation de performance me suffirait largement

Mais oui, malheureusement, vu que sur le marché il y aura d’autres ordinateurs avec de meilleures performances (bien qu’avec une autonomie bcp plus faible), un tel produit serait critiqué par les testeurs / Youtubeurs pour son manque de performance, et il serait donc au final difficile de le vendre (donc pas suffisamment rentable pour Apple).

avatar test_user_support | 

@dujarrier

En principe je te rejoins sur mes besoins. Je préférerais une baisse de conso.
Mais on va vite arriver à un stade où le CPU ne représentera plus une part suffisante de la conso de la machine pour que cela ait un impact significatif sur l’autonomie, non ?

avatar Brice21 | 

@dujarrier

"en utilisant de la mémoire Non-Volatile type MRAM"

Le futur est une invention belge, l’UltraRAM :

https://quinas.tech/news/fms2023/

Elle permet de stocker les données en non-volatile pour +1000 ans et en meme temps elle consomme 100x moins d’énergie que la DRAM, 1000x moins que la NAND, enfin elle va 10x plus vite que la DRAM.

Bref ca va tout remplacer de la RAM au SSD.

Plus d’infos :
https://www.tomshardware.com/news/ultraram-demos-prototype-chip-secures-funding-to-validate-commercial-potential

https://www.tomshardware.com/news/ultraram-implemented-in-silicon-for-first-time

avatar dujarrier | 

@Brice21

Oui certaines caractéristiques de l’UltraRAM semblent interessantes, MAIS malheureusement comme la très vaste majorité des annonces de ce type, seul les parametres favorables sont mis en avant, en omettant de parler de ceux qui ne le sont pas.

Par exemple, l’endurance (le nombre de fois que la mémoire peut faire des cycles d’ecriture - lecture) est je crois limité à 10E5, ce qui est OK pour un SSD, mais trop limite pour une DRAM généraliste (la DRAM classique a une endurance superieure à je crois 10E15 ou 10E16…).

La VG-SOT-MRAM développé par le centre de recherche européen IMEC, à une endurance supérieure a 10E12, et une durée de rétention supérieure à 10 ans (une fois l’information ecrite, il y reste pdt 10 ans sans Pb).

Par contre, je crois que le process d’ecriture de cette MRAM consomme plus que celui de la DRAM, et aussi a node de gravure equivalent (ex: 14nm), l’encombrement des cellules memoire est bcp plus grande, et donc ne serait pas competitive economiquement.

Mais je rêve de voir la MRAM se généraliser pour enfin réaliser le rêve de « Normally-off computing » qui a été présenté au début des années 2000 je crois…

avatar hawker | 

Cette boîte s’est tellement foutu de la gueule du monde en refilant tout aux actionnaires en vendant des merdes dualcore 10x leur prix, pendant que la rnd etait arrêté volontairement, vu que AMD etait une loque niveau compétition, que maintenant ils sont foutus.
Allez disparaissez Intel, vous êtes des nuisibles et incompétents. x86 c’est juste un techno morte depuis 10 ans, place aux nouveaux qui sont spécialistes arm/riscv.

avatar Ingmar97432 | 

@hawker

Oui bon enfin une bonne paire de xeons avec 56vcpu pour virtualiser ça fait quand même bien le taf… et franchement mes serveurs avec 2xpsu 128go de ram et 4 à 12hdd ne bouffent « que » 120w… c’est pas cher payé pour le service rendu et la fiabilité je trouve. Alors n’enterrons pas si vite Intel peut-être?

avatar Mrleblanc101 | 

@ingmar92110

Pour 4x le prix ET 2x moins de cœurs que la même chose chez AMD

avatar RonDex | 

@hawker

« place aux nouveaux qui sont spécialistes arm/ris »
Et tu parles de toi ? 😁

avatar RonDex | 

« Apple, en face, semble aller moins vite »
Et c’est tant mieux, ça permet de garder son Mac beaucoup plus longtemps… Contrairement aux iPhone ou il y a des nouvelles puce tous les ans 🤷‍♂️

avatar smog | 

Dommage. Je cherche à me faire un PC Linux pour la 3D, les AMD restent quand-même plus intéressants pour ce qui est de la consommation. Je ne crache pas sur Intel, les 13 sont franchement biens (les 12 aussi) en termes de puissance, mais quand on a aussi le critère consommation (même pour une "tour") c'est vite vu... J'espérais que les nouveaux Intel remettent la barre très haut niveau économies de W. Tant pis...

avatar Yeux | 

Er oui toujours la tête dans le lac...

avatar Dr. Kifelkloun | 

C'est bien de se focaliser sur les chiffres et toujours se demander si Apple va pisser plus loin que Intel et gnagnagna et gnagnagna...
Par contre, si on recherche ce que ça change réellement pour les utilisateurs lambda, soit la majorité des utilisateurs, dont moi, on ne trouve pas grand chose de spectaculaire.
Ce marketing est assez fatigant, et il me fatigue depuis le Pentium, c'est dire 😆

Pages

CONNEXION UTILISATEUR