Qualcomm annonce que le Snapdragon X Elite est plus rapide que l'Apple M3… et c'est probablement le cas

Pierre Dandumont |

En octobre, Qualcomm a annoncé le Snapdragon X Elite, un système sur puce pensé pour les ordinateurs sous Windows, et annoncé pour le milieu de l'année 2024. Il est basé sur le cœur Oryon (issu des travaux de Nuvia) et la société américaine a indiqué récemment que la nouvelle puce serait plus rapide que l'Apple M3. Et au vu des configurations des deux SoC… c'est probablement le cas et c'est normal.

Ce sont nos confrères de Digital Trends qui partagent cette image : un benchmark fourni par Qualcomm montre que la nouvelle puce est plus rapide que l'Apple M3 sur plusieurs cœurs, avec un gain d'environ 20 %. Mais il n'y a rien d'étonnant : la puce possède plus de cœurs.

Un benchmark fourni par Qualcomm sur une machine de référence, six mois avant la sortie.
Avec Oryon et le Snapdragon X Elite, Qualcomm compte battre le M2 et les puces x86

Avec Oryon et le Snapdragon X Elite, Qualcomm compte battre le M2 et les puces x86

Notre actualité sur le sujet l'expliquait déjà : le système sur puce Snapdragon X Elite a été annoncé avec 12 cœurs identiques et une fréquence de 3,8 GHz (4,3 GHz en pointe). En face, l'Apple M3 reste assez conservateur : il possède quatre cœurs performants et quatre cœurs basse consommation (4+4). Même en prenant en compte que les performances sur un seul cœur sont à l'avantage d'Apple, le plus grand nombre de cœurs permet mécaniquement à la puce de Qualcomm de prendre la tête. Pour tout dire, le Snapdragon X Elite est probablement plus rapide dans ce cas de figure que l'Apple M3 Pro, un système sur puce doté de 11 (5+6) ou 12 (6+6) cœurs.

Qualcomm a choisi d'intégrer 12 cœurs.

Par contre, Qualcomm évite pour le moment de trop mettre en avant la puissance de son GPU : si le CPU est très rapide, le GPU est un peu à la traîne comparativement et se place entre une puce M2 et une puce M1 Pro (Apple ne donne pas la puissance exacte du M3, mais elle est probablement au moins équivalente au vu des performances mesurées.

En réalité, comme souvent avant la sortie d'un produit, les fabricants choisissent évidemment les cas les plus favorables et mettre en avant les performances d'un CPU doté de 12 cœurs est logique. Reste à voir comment s'en sortiront les PC équipés de la puce dans la pratique : elle aura du travail pour émuler des logiciels comme Chrome, qui n'existe pour le moment pas dans une variante ARM64 pour les PC sous Windows.

avatar debione | 

De la concurrence, c'est bien...
Ce qui serait encore mieux c'est que RiskV commence à décoller...

Une guerre à 3 c'est mieux (x86/ARM/RiskV)...

Ce qui serait le Graal actuellement, c'est d'avoir de l'ARM (comme le Silicon/Qualcomm) mais avec la possibilité de greffer dessus de "vraie" partie GPU en plus des GPU intégré...

avatar Mrleblanc101 | 

@debione

Au contraire, ça créera encore plus de fragmentation. Du côté Apple ça va puisque tous les Mac sont ARM, mais sur Windows c'est asser triste, rien ne supporte ARM et l'émulation n'est pas au niveau

avatar debione | 

@Mrleblanc101:

"rien ne supporte ARM et l'émulation n'est pas au niveau"
Peut-être parce qu'aucun Arm jusqu'à maintenant (hors Silicon) n'avait réellement de quoi faire tourner un ordi "plein pot"? Parce que je pourrais retourner le truc, il n'y a plus un seul soft Apple qui soit compatible avec mon iMac 2009... Alors que tout tourne au taquet si je passe par Bootcamp.
Microsoft ne bougera que si elle est sur de ce qu'elle fait... et que cela n'impactera en rien, ou le moins possible ses clients. Et les clients windows ont une sale tendance à changer bien moins souvent leurs setup, normal quand tu regardes un peu ce qui se passe en entreprise.
Apple est différente, ça bouge beaucoup plus vite, car il n'y a pas un parc installé avec un retro.compatibilité (il y a déjà de gros problème de compatibilité entre leurs Os si ils ne sont pas de la même année).

Ce n'est pas une question de capacité logiciel ou d'émulation, mais de clientèle. Ce ne sont pas tout à fait les mêmes cibles.

avatar frankm | 

@debione

Et à l’inverse les jeux sur Mac

avatar fte | 

@Mrleblanc101

"Au contraire, ça créera encore plus de fragmentation."

Marrant comme façon d’argumenter en faveur de monopoles.

"Du côté Apple ça va puisque tous les Mac sont ARM, mais sur Windows c'est asser triste,"

La diversité et les options, certains trouvent ça bien. Le point est que tu ne seras pas obligé de choisir une alternative.

"rien ne supporte ARM"

Faux.

Windows supporte arm. Je l’utilise dans une machine virtuelle sur un Mac arm et c’est une bouffée de bon air. Avec plein d’apps marrantes. Toutes les apps .net sont supportées sans passer par du code x86/x64. Et l’émulation x86 est sans faille, tout fonctionne.

"et l'émulation n'est pas au niveau"

C’est faux.

L’émulation par Windows est supérieure car elle émule x86 et x64 quand Rosetta n’emule que x64, et les performances mesurées sur le même hardware donne l’émulation de Windows au pire au coude à coude au mieux une dizaines de pourcents meilleure.

Mes propres benchmarks vont dans le même sens. Et en machine virtuelle qui plus est.

Apple n’a aucun track record dans l’émulation de code ou l’interprétation de bytecode montrant son savoir-faire supérieur. Son interprétation JavaScript est inférieure de beaucoup à celle de Chromium, son émulation de 68x00 sur PowerPC n’avait aucun concurrent comparable, son émulation x64 sur arm est inférieure à celle de Windows, Microsoft ayant largement fait ses preuves dans ce domaine logiciel depuis des années.

avatar joneskind | 

@fte

"L’émulation par Windows est supérieure car elle émule x86 et x64 quand Rosetta n’emule que x64"

macOS ne supporte plus le 32Bits depuis des années. Quel intérêt pour Rosetta 2 de le supporter ?

Les perfs de l'émulation x64 sur Windows ARM sont lamentables, et sur Windows 11 seulement...

"Apple n’a aucun track record dans l’émulation de code ou l’interprétation de bytecode montrant son savoir-faire supérieur."

Lance une app x86 sur un Mac ARM et lance son équivalent natif. Regarde la différence de performance.

Fais la même chose sur Windows 11 et tu verras la différence. C'est facile, il suffit de lancer Edge d'un côté, et Google Chrome de l'autre. C'est de notoriété publique que l'émulation x86 sur Windows c'est de la merde, en particulier l'émulation x64.

"Son interprétation JavaScript est inférieure de beaucoup à celle de Chromium"

Qu'est-ce que tu racontes comme âneries exactement ? Chromium c'est un web engine. Quel rapport avec l'émulation ? À moins que tu compares le moteur JS de Chromium à celui de Webkit ? Ton affirmation ne serait pas moins fausse (Webkit est 15% plus rapide que Chromium) mais au moins ça aurait un peu plus de sens...

"son émulation x64 sur arm est inférieure à celle de Windows, Microsoft ayant largement fait ses preuves dans ce domaine logiciel depuis des années."

Tu délires complètement là...

avatar fte | 

@joneskind

"macOS ne supporte plus le 32Bits depuis des années. Quel intérêt pour Rosetta 2 de le supporter ?"

Question intéressante et pertinente.

Apple a pour habitude d’abandonner la compatibilité avec les choses qui ne sont pas actuelles. Rosetta s’inscrit bien entendu dans cette philosophie. C’est raccord.

L’intérêt est évident : compatibilité ascendante. Mais ce n’est donc pas l’habitude, tout le contraire.

C’est un choix, c’est un choix qui est pénalisant pour certains utilisateurs, c’est un choix à l’avantage d’Apple quant à la gestion de la complexité… il y a évidemment des avantages indirects et conséquentiels pour les utilisateurs, mais ce sont des effets marginaux.

Bref. C’est un autre débat véritablement.

"Les perfs de l'émulation x64 sur Windows ARM sont lamentables, et sur Windows 11 seulement..."

C’est faux. Les perfs ne sont pas lamentables. Elles sont comparables voire un peu meilleures que celles de Rosetta. Mais qu’importe, les deux émulations ne sont absolument pas en compétition, on a pas le choix de l’une ou l’autre et ce n’est pas le facteur déterminant pour choisir macOS ou Windows. Elles servent deux objectifs : permettre d’utiliser des applications qui n’ont pas été adaptées à la nouvelle plateforme, et le faire de façon suffisamment transparente pour qu’on ne hurle pas instantanément "oh putain c’est émulé". Le premier objectif est bien entendu rempli par les deux émulateurs, avec un très net avantage de compatibilité ascendante pour l’émulateur de Windows, mais c’est la philosophie normale de Windows, pas de l’émulateur. Le deuxième objectif est également rempli par les deux émulateurs, je dois regarder pour savoir ce qui est émulé, ça ne saute pas aux yeux.

"Lance une app x86 sur un Mac ARM et lance son équivalent natif. Regarde la différence de performance.
Fais la même chose sur Windows 11 et tu verras la différence."

Ais-je mentionné avoir fait quelque benchmarks ? J’ai mentionné. Anyway. Ni mon expérience ni les benchmarks de tiers ne montrent une différence lourdement pénalisante, ni de différences significatives générales entre les deux émulations.

Donc non. Ça ne saute pas aux yeux.

"C'est facile, il suffit de lancer Edge d'un côté, et Google Chrome de l'autre."

Oh, il y a une différence. Ais-je dit qu’il n’y avait pas de différence ? Non, je n’ai pas dit. La différence n’est pas lourde. La différence entre les deux émulateurs n’est pas lourde. Ça ne saute pas aux yeux, ni aux benchmarks.

"C'est de notoriété publique que l'émulation x86 sur Windows c'est de la merde, en particulier l'émulation x64."

Ce n’est pas parce que la notoriété publique a tort qu’elle a raison. Les benchmarks ne montrent pas que la notoriété publique a raison, et aucun benchmark n’est signé notoriété publique. Quelques curieux technophiles l’ont fait par contre, dont ton serviteur. Ils montent que la notoriété publique ferait mieux de fermer sa gueule. Mais encore une fois, qu’importe, ces émulations ne sont pas en compétition. Elles remplissent leur objectif de permettre d’utiliser des apps non adaptées de façon transparente, sans souffrance majeure.

"Qu'est-ce que tu racontes comme âneries exactement ?"

Tu as raison, le sophisme te donne raison. Joue sur l’ad personam, l’ad hominem et la terminologie, go, bien que tu aies tout à fait compris.

Je passe, c’est ridicule.

"mais au moins ça aurait un peu plus de sens..."

Tu as compris, donc soit tu es suprêmement intelligent, soit ça avait assez de sens pour que tu comprennes.

Ridicule 2.

"Tu délires complètement là..."

Mais oui, c’est sûrement ça. La drogue, tu comprends, je fume du sapin et des harengs.

Ridicule 3.

Belle fêtes néanmoins.

avatar oomu | 

il faut fragmenter les processeurs et fournisseurs, dans l'intérêt des consommateurs.

Les outils de développement et fournisseurs de technologies logiciels assisteront les développeurs de logiciels.

avatar fte | 

@oomu

"il faut fragmenter les processeurs et fournisseurs, dans l'intérêt des consommateurs."

Et au fond des constructeurs également, niveau R&D…

avatar Pierre Dandumont | 
On peut relier l'Elite à un GPU (Qualcomm l'a montré).
avatar debione | 

@Pierre Dandumont | :

Ca c'est super intéressant, merci de la réponse!

avatar Malouin | 

@debione

Reprenons… entre un Snapdragon sans Os ni ordi pour le tester et un Risk encore pire, je ne vois pas trop la concurrence là ! Les effets d’annonce n’ont jamais créer des parts de marché !

avatar debione | 

@Malouin:
Vous ne la voyez pas parce que vous ne la voyez pas! (belle lapalissade je sais).
Je vous assure qu'Apple la voit bien la concurrence, pas pour rien que par exemple ils ont complètement arrêté de mentir au sujet des comparatifs avec les couples Intel/Nvidia, au point de juste comparer avec leurs propres générations. (quand on voit que des GPU M2 Ultra font moins bien que des cartes 350 boules de chez Nvidia)

Alors c'est pas pour demain pour le RiskV (dans des ordis, parce qu'il me semble que certains objet risk soit déjà sorti), mais croyez bien qu'Apple travaille sur du Risk déjà à l'heure actuelle.

Et juste pour info, regardez bien la photo, cette puce est réellement dans un VRAI ordi, 6 mois avant sa commercialisation. Et que Microsoft à quand même une sacré expertise dans le soft, si marché il y a (donc des $) machine il y aura!

avatar Sillage | 

@debione

J’aimerais bien voir un SLS (Surface Laptop Studio) avec puce ARM, et bonne émulation x86 comme Rosetta. Si marché il y a, l’effort sera peut-être fourni pour un bon émulateur natif. Croisons les doigts. En attendant que la transition se fasse. Ne serait-ce que pour la longévité de la batterie.

avatar XiliX | 
avatar Sillage | 

@XiliX

Oui mais, ce n’est pas comme le Surface Laptop Studio. A voir dans quelques années.

avatar Malouin | 

@debione

Quelle performance ? Quelle consommation ? Quelle portabilité ?… On est très lin d’une gamme et d’un OS quand même !
Sœur Anne ne voit tu rien venir ?
Pour le coup, elle ne voit rien avant plusieurs années !
Ce qui laissera à Apple le temps de creuser un peu plus le sillon qu’elle est le seul à creuser point le moment !

avatar koko256 | 

@Malouin

On parle de mi-2024 donc a priori le M3 est le bon CPU à comparer.
Mais comme le disait MacG, il n'y a pas de concurrence. La majorité des utilisateurs ne changeront pas de système. L'arrivée du snapdragon X elite va offrir une alternative intéressante pour ceux qui sont sous Windows et Linux et peut-être plus tard pour les adeptes de ChromeOS.
La mise en balance n'est présente que pour ceux qui, comme moi, se fichent de l'OS (tout est "beau" et stable maintenant, je mets "beau" entre guillemets car c'est de la beauté insipide une peu comme la beauté dés baignoires à l'ancienne que l'on voit chez Leroy-Merlin et Casto).

avatar Nesus | 

@debione

Votre point de vue est amusant. Car vous refusez au GPU ce que vous espérez au CPU. Car de facto, permettre de mettre n’importe quel GPU, c’est assoir la domination de Nvidia.

avatar debione | 

@Nesus:

Non, j'essaye de regarder le meilleur des deux mondes...
Le CPU d'Apple est de bonne facture en puissance brute, pas ce qui se fait de mieux, mais de bonne facture. On ne peut pas en dire autant de la partie GPU, ou un M2 Ultra n'arrive pas à conccurencer une rtx 4060 @ 350 boules. et il est carrèment largué si on le compare à une 4090 (grosso merdo 1/3 des performances).

J'en ai rien à carré de savoir quel genre de proc tourne sous le capot, de savoir si c'est ARM qui domine ou une solution X86.

Actuellement, oui, excepté certain AMD, tout le monde est largué sur la puissance graphoiqie par Nvidia...

C'est mal d'espérer le mieux?

avatar Nesus | 

@debione

Vous avez parfaitement le droit, c’est juste que c’est contradictoire. Vous avez le droit d’être en contradiction avec vous même, vous n’êtes pas le premier et vous ne serez pas le dernier. C’est juste un constat.
RiskV est aussi performant que le gpu intel iris.

avatar oomu | 

la meilleure technologie au meilleure prix, le reste importe peu dans le fond

s'il faut permettre Nvidia pour avoir des gpus performants, alors Nvidia !

avatar fte | 

@oomu

"s'il faut permettre Nvidia pour avoir des gpus performants, alors Nvidia !"

Et des API supportées. C’est bien les API supportées. Il y a des apps qui les utilisent. C’est bien les apps.

Un GPU performant ou non avec une API que personne n’utilise ni ne veut utiliser, il n’y a pas d’apps. C’est pas bien pas d’apps.

avatar fte | 

@Nesus

"permettre de mettre n’importe quel GPU, c’est assoir la domination de Nvidia."

Il y a du vrai dans ton propos.

Néanmoins un monopole est-il le meilleur moyen de lutte contre un monopole ?

Le meilleur moyen de lutte contre un monopole, c’est un écosystème varié autant au niveau du matériel que du logiciel. Apple impose son propre monopole avec du matériel exclusif et une API propriétaire inutile dans le grand schéma des choses, rendant le hardware aussi inutile au final. Ce n’est pas une bonne solution. Ce n’est même pas une mauvaise solution, c’est juste remplacer un problème qui fait le job par un problème qui ne fait pas le job.

Une option de GPU tiers, certes ouvrirait la porte à Nvidia et CUDA, et toutes la grande masse d’applications basées sur CUDA, mais ouvrirait aussi la porte à AMD et Intel.

Surtout, peut-être, peut-être, mais probablement pas, ça aurait ralenti l’exode des applications "pro" loin du Mac. C’est mort maintenant.

Mais non seulement c’est théorique, c’est aussi inutile d’en discuter car ça n’arrivera pas. Cette discussion ne sortira pas du cadre divertissement.

avatar Nesus | 

@fte

Je partage pleinement le point de vue. Sauf le monopole d’Apple qui n’existe absolument pas. Le monopole sur son matériel, ça ne peut pas exister. Et n’importe qui peut acheter un autre ordinateur qu’un Mac. Le Mac, n’est pas un marché à lui seul, donc il n’y a pas de monopole.
Pour le reste vous avez raison, Apple a délibérément repoussé tous ceux qui avaient besoin d’un carte graphique.
C’est un choix de stratégie commerciale qu’eux seuls peuvent discuter.

avatar nico_fr87 | 

@Nesus

Ça dépend de comment tu définis le marché dans lequel il y a un monopole. Si on parle des macs Apple silicon, il y a monopole des gpu Apple et en plus sans possibilité d’upgrade interne ou externe. On pourrait inclure les macs Intel mais ce n’est plus une plateforme d’avenir vu qu’Apple s’en désengage

avatar Nesus | 

@nico_fr87

Non, ça ne dépend pas.
Les mac (silicone ou Intel), c’est une gamme de produits, pas un marché !
Le marché c’est les ordinateurs personnels.
Faut arrêter de dire n’importe quoi juste par sophisme.

avatar nico_fr87 | 

@Nesus

Et pourtant les actions de fermeture d’Apple font que l’on peut parfaitement considérer son marché à part. Je ne dis pas que c’est une obligation je dis que c’est une possibilité. De la même façon qu’Apple, maintenant qu’elle peut s’en prévaloir, met le rapport performance / watt comme la seule manière de mesurer les performances des appareils

avatar Nesus | 

@nico_fr87

Non, c’est un produit à part qui n’utilise pas des éléments standards. Ce n’est pas un marché. Les mots ont un sens. Que vous le vouliez ou non.

avatar nico_fr87 | 

@Nesus

Ce qui correspond à une niche qui peut être assimilé à un micro marché que tu leu il les ou non 🙃

avatar Nesus | 

@nico_fr87

Toujours pas.
Pour qu’il y ait marché, il doit obligatoirement avoir plusieurs fournisseurs et un loi de l’offre et de la demande.
Donc à moins de considéré qu’Apple est plusieurs à elle seule, ça ne fonctionne pas. Un micro-marché de un, ce n’est pas un marché.

avatar fte | 

@nico_fr87

"Ça dépend de comment tu définis le marché dans lequel il y a un monopole."

Laisse tomber. C’est du pinaillage gratuit sur un forum grand public, pas une thèse philosophique.

Tout le monde a compris le message initial, bien entendu, y compris le pinailleur, évidemment.

A quoi bon s’agacer ?

avatar v1nce29 | 
avatar hervemac | 

Et ça donne quoi niveau consommation ?

Car bon si c’est pour dire que la puce est plus puissante mais qu’elle consomme 2 à 3 fois plus qu’une puce M. Apple a toujours l’avantage dans ce cas.

avatar armandgz123 | 

@hervemac

Sauf si on s’en tape de la consommation…

avatar raoolito | 

@armandgz123

Et il est vrai que sur PC, c'est souvent le cas, mais le marché de ceux qui s'intéressent aux puces ARM sur Windows, sans doute ils y sont assez sensibles

avatar armandgz123 | 

@raoolito

Oui tu as raison je pense

avatar redchou | 

@hervemac

Ça a déjà été dit, ce n’est pas 2, 3 fois plus de conso…
Et quand on regarde la différence, ce peut être imputable à la gravure entre autre chose.

avatar fte | 

@redchou

"Et quand on regarde la différence, ce peut être imputable à la gravure entre autre chose."

Rien ne ressemble plus à un cœur arm qu’un autre cœur arm de même génération.

avatar fte | 

@hervemac

"Car bon si c’est pour dire que la puce est plus puissante mais qu’elle consomme 2 à 3 fois plus qu’une puce M. Apple a toujours l’avantage dans ce cas."

Hypothèse non confirmée.

AMD n’est pas 3 fois plus gourmand. Pas de raison qu’un cœur arm qui ressemble à un autre cœur arm soit 3 fois plus gourmand.

avatar Paquito06 | 

“Mais il n'y a rien d'étonnant : la puce possède plus de cœurs.”

Ahah.
Est ce que, a 💛 egal, la M3 est plus energivore que la Snap X Elite? Si ca a de l’importance?

avatar Pierre Dandumont | 
Qualcomm ne parle pas de ce point, mais les données disponibles donnent une consommation plus élevée chez Qualcomm
avatar Paquito06 | 

@Pierre Dandumont

👍🏼

avatar bonnepoire | 

Et pas d’os pour en profiter. Est-ce que Microsoft s’active en coulisse?

avatar Bruno de Malaisie | 

@Pierre Dandumont

“Sans contrôle, la puissance n’est rien”.
C’était un slogan pour une publicité de pneus je pense.

Pour un portable, la puissance, c’est bien, mais l’autonomie, c’est mieux.

avatar fleeBubl | 

@Bruno de Malaisie

Pas bête : Un cheval-vapeur, sans sa monture, en somme

avatar Fego007 | 

@Bruno de Malaisie
Ronaldo !
Sans maîtrise la puissance n’est rien
Pirelli

avatar Bruno de Malaisie | 

@Fego007

C’est ce que je pensais!!!
Merci pour les souvenirs

avatar andr3 | 

@Bruno de Malaisie

Pirelli

avatar Bruno de Malaisie | 

@andr3

Les pneus P6 je crois me souvenir… En première monte sur la R5 Alpine…

Pages

CONNEXION UTILISATEUR