Intel dénigre à nouveau la puce M1 dans une campagne orientée jeux

Félix Cattafesta |

En début d'année, Intel avait lancé une campagne intitulée "Vous n'êtes pas sur Mac" destinée à dénigrer la nouvelle puce M1 d'Apple. Cette communication mettait en avant diverses lacunes des ordinateurs Apple, comme l'impossibilité de jouer ou l'absence d'écran tactile. Le fondeur avait également diffusé plusieurs benchmarks (dont certains étaient discutables) pour affirmer la supériorité de ses processeurs.

Image : Intel

Les relations entre les deux nouveaux adversaires ne vont pas s'améliorer après la diffusion hier d'une nouvelle campagne présentée lors du Computex 21. Celle-ci a été dévoilée à l'occasion de la sortie des nouveaux processeurs 11è génération Série H d'Intel.

D'après l'entreprise, les Mac sont des produits inférieurs de par le manque de compatibilité avec les jeux : le fabricant en a profité pour publier une liste de titres, parmi les plus populaires, incompatibles avec macOS. Un argument qui ne date certes pas d'hier — c'est sur iOS qu'Apple a réussi à faire se rencontrer éditeurs et joueurs —  mais qui reste valable : mis à part au travers de l'émulation, il est pour le moment impossible d'installer Windows directement sur un Mac M1.

Image : Intel

Intel a également diffusé un benchmark opposant un MacBook Pro 16 pouces (le plus puissant commercialisé actuellement) à un ordinateur Intel. Sans surprise, celui-ci est à l'avantage d'Intel qui a évidemment soigneusement sélectionné les tests. La campagne vante aussi le fait que de nombreux créatifs sont des joueurs et vice-versa.

Interrogé par PCGamer, Ryan Shrout, Chief Performance Strategist chez Intel a justifié cette campagne par le fait qu'Apple n'avait fait « aucun mystère auprès des consommateurs du passage à ses propres processeurs » et qu'il considérait maintenant la firme de Cupertino comme un concurrent.

Tags
avatar pocketalex | 

@ Fredouille14

"Imaginez que Google, Microsoft, Huawei, … pas des pauvres non plus suivent la même voie, dans 5 ans Intel deviendra un fondeur comme un autre et pas le meilleur."

Toujours le méchant Intel, et toujours des propositions simplistes pour "dégager le méchant". Bouh !

Si on allait miner le métal sur Saturne, on aurait plus de souci de matière première, et si on arrêtait toute les guerres demain matin, l'humanité se porterait mieux. C'est sur, c'est sur

avatar lunastix | 

De toute façon depuis l’arrivée des services de cloud gaming, pas mal de gens ont enfin la possibilité de jouer sans se prendre la tête avec la puissance d’un processeur.

avatar Gwynpl@ine | 

Intel zappe que la grand majorité de son pack actuel ne peut pas bien faire tourner ces jeux, c'est quoi les PC Gamer 20% de PDM pour Intel ?

J'ai la chance d'avoir un Mini M1 8&8 et un MBP 16... autant dire qu'il a peu d'écart. Entre 2700 et 800 euros, comment vous dire... C'est la claque.

avatar cecile_aelita | 

@Gwynpl@ine

« c'est quoi les PC Gamer 20% de PDM pour Intel ? »
20%??😳😳!!
On est d’accord que lorsque tu parles de « PC de gamers » c’est des grosses machines avec des processeurs bien puissants? (Le genre de bécane à + de 1000-1500€)
Tu crois réellement qu’il y a 20% des gens qui mettent ce prix là dans une machine?😳!
Si c’est 3-4% c’est le bout du monde! L’écrasante majorité de l’achat des machines, c’est des bécanes à 500-700€ qui conviennent à l’écrasante majorité des gens (n’en déplaisent aux geeks adorateurs des grosses fiches techniques … ça les agacent d’autant plus que ça doit être frustrant pour eux de se dire qu’ils ne sont qu’une infime minorité et que du coup… c’est logique que les fabricants d’ordinateurs n’en fassent pas leur priorité … du coup… ils dénigrent ces machines : « si elles ne leur sont pas destiné … c’est que c’est forcément de la merde » (bienvenue dans le monde d’internet et du nombrilisme)^^.

avatar raoolito | 

@romainB84
"n’en déplaisent aux geeks adorateurs des grosses fiches techniques"

OUI mais eux ils ont de sports usb-A et ÇA CA CHANGE TOUUUUUUUUUT
:D

avatar cecile_aelita | 

@raoolito

Apple n’a rien compris 🤣🤣!
UsbC sur les macs…. Les geeks ne veulent pas de l’USBC .
Lightning sur les iPhone… les geeks veulent de l’USBC 🤣

avatar raoolito | 

@romainB84

c ca :)

avatar cecile_aelita | 

@raoolito

J’aurais pu mettre :

Apple n’a rien compris 🤣🤣!
UsbC sur les macs…. Les geeks ne veulent pas de l’USBC / 90% de la clientèle s’en fou .
Lightning sur les iPhone… les geeks veulent de l’USBC / 90% de la clientèle s’en fou 🤣

avatar macfredx | 

@romainB84

Tellement juste !

avatar byte_order | 

@Gwynpl@ine
> c'est quoi les PC Gamer 20% de PDM pour Intel ?

Environ 3 milliards de "gamers" actifs :
https://financesonline.com/number-of-gamers-worldwide/

28% sur console, 23% sur PC, le reste sur web et mobiles
https://www.wepc.com/news/video-game-statistics/#elementor-toc__heading-anchor-2

Environ 1.3 milliard de PC installés. Avec 23% des 3 milliards de gamers qui jouent sur des PC, cela fait environ 650 millions de joueurs sur PC.
On est donc plus proche du 50% que du 20%.
Après, c'est partagé, côté CPU, entre Intel et AMD désormais. 60% Intel, le reste AMD, mais chez les gamers on doit trouver un peu plus d'AMD que la moyenne.

Le jeu vidéo est un secteur en croissance et contrairement à ce que vous pourriez croire, le PC est loin d'en être absent.

> J'ai la chance d'avoir un Mini M1 8&8 et un MBP 16... autant dire qu'il a peu d'écart.
> Entre 2700 et 800 euros, comment vous dire... C'est la claque.

Ouais, enfin attention, pour 800 euros vous n'avez ni écran ni clavier ni trackpad ni touchid ni batterie. Les 2700 euros d'un MBP intel ne sont pas justifiés que par Intel, d'ailleurs le prix est fixé par Apple, nullement par Intel, le prix du CPU pèse peu dans le prix final.

avatar pocketalex | 

"Environ 1.3 milliard de PC installés. Avec 23% des 3 milliards de gamers qui jouent sur des PC, cela fait environ 650 millions de joueurs sur PC.
On est donc plus proche du 50% que du 20%."

Dans la série "j'écris des conneries tellement énormes que je suis sur qu'elles vont passer", franchement, tu fais très fort

avatar pocketalex | 

"Although the gaming PC industry witnessed supply chain issues in the first half of 2020, global shipments of gaming laptops, desktop PCs, and monitors are expected to jump 16.2% YoY to 49.6 million units in 2020"

"Worldwide PC shipments totaled 79.4 million units in the fourth quarter of 2020, a 10.7% increase from the fourth quarter of 2019, according to preliminary results by Gartner, Inc. For the year, PC shipments reached 275 million units in 2020, a 4.8% increase from 2019 and the highest growth in ten years."

les PC "gaming" représenteraient 18% des ventes et non 50%

Et encore, les 49.6 millions d'unités dont parle l'article incluent les moniteurs... donc si on les exclue et que l'on se concentre juste sur les machine, le chiffre peut être revu à la baisse

Enfin bref, c'est bien de tordre la réalité pour assoir son propos, mais à un moment si on tire trop sur un élastique...

avatar Bigdidou | 

@pocketalex

« les PC "gaming" représenteraient 18% des ventes et non 50% »

Avec un qui parle des gamers sur PC et de parc installé et l’autre qui parle des PC gamers et de machines vendues par an, vous n’êtes pas prêts de vous entendre, c’est certain… :D

avatar minounet | 

Il me semble que macg est allé un peu vite à retrancrire car si je me trompe pas, c’était puce intel macOS contre puce intel Windows .
Intel cherche donc à montrer que c’est pas intel qui est mauvais, mais macOS
Sauf si j’ai mal lu l’article de macg

avatar Adodane | 

@minounet

C’est ça ! Intel ne parle pas de ARM.

avatar minounet | 

@Adodane

Si, mais ils parlent surtout du couple Intel-Windows et intel mac que intel vs silicon
La comparaison PC / Mac a déjà été faite lors de la précédente com GET a PC

avatar minounet | 

@Adodane

Pourquoi la comparaison avec un MacBook pro 16 pour faire la comparaison alors ?

avatar byte_order | 

@minounet

Comparaison sous macOS vs sous Windows.

avatar minounet | 

@byte_order

Tout à fait

avatar Moonwalker | 

Des arguments qui nous renvoient près de vingt ans en arrière.

avatar Nesus | 

@Moonwalker

C’est tellement ça…

avatar v1nce29 | 

Déjà à l'époque on pouvait pas jouer sur Mac ?

avatar marenostrum | 

qui achète un ordi 3000 balles pour jouer ? et pourquoi Apple devait penser aux joueurs ? avec leur stratégie ils ont montré que c'était la bonne. ils sont devenu plus riches que leurs concurrents. et c'est tout.

avatar byte_order | 

@marenostrum
> qui achète un ordi 3000 balles pour jouer ?

Les joueurs qui en ont envie.

Qui achète un ordi 3000 balles pour faire de la musique ? Retoucher des photos ? De la bureautique ?

Pourquoi ce jugement de valeur, une personne qui dépense 3000 euros dans un ordinateur le fait parce qu'elle estime que cela en vaut le coup, point.

Perso, par exemple, l'expérience de Flight Simulator 2020 à elle toute seule a parfaitement légitimer l'achat d'une nouvelle carte graphique à 600 euros. Alors que je n'ai pas besoin de cette puissance de GPU pour les autres activités sur mon PC (développement, principalement).

> et pourquoi Apple devait penser aux joueurs ?

En effet.

C'est justement le message réciproque que Intel tente de faire passer : et pourquoi les joueurs devrait penser à Apple ?

> avec leur stratégie ils ont montré que c'était la bonne. ils sont devenu plus riches
> que leurs concurrents.

Oh, attention, leur "stratégie" est loin de reposer sur une supériorité technologique, y'a aussi beaucoup de stratégie de fermeture et de captation du maximum de profits non seulement lors des achats mais également lors des usages ensuite qui explique la réussite financière.

Si la supériorité technologique était systématiquement ce qui rendait riche une entreprise, le Betamax aurait rendu plus riche Sony...

avatar Adodane | 

C’est évident qu’un pc est plus polyvalent qu’un Mac, sans parler de la compatibilité 32bits, 64bits, Linux de plus en plus.
Je me demande si les binaires 16 bits fonctionnent encore sur Windows ?

avatar byte_order | 

@Adodane
> sans parler de la compatibilité 32bits, 64bits

Ca c'est un pb purement logiciel, l'abandon du support 32bits sur mac c'est uniquement parce que Apple n'a pas envie de s'embêter et comme sa clientèle est nettement plus captive elle peut se permettre ce genre de bousculade.

> Je me demande si les binaires 16 bits fonctionnent encore sur Windows ?

Non, faut quand même pas pousser grande mère dans les orties !
Après, via émulation y'a moyen, et y'a des émulateurs tiers qui existent.
Sans oublier la solution de lancer une VM avec Windows 3 ou XP dedans, tout simplement.

avatar idhem59 | 

@byte_order

"Ca c'est un pb purement logiciel, l'abandon du support 32bits sur mac c'est uniquement parce que Apple n'a pas envie de s'embêter et comme sa clientèle est nettement plus captive elle peut se permettre ce genre de bousculade."

Oui enfin au bout d'un moment, il faut aussi avancer.
Et c'est le gros problème de Microsoft avec Windows 10 actuellement, le système est bourré de fonctionnalités désuètes de l'époque XP voir 2000 Pro qui ne sont là que pour éviter que tout leur tout leur code legacy se pète la gueule et pour éviter la grogne (interfaces de paramètres en double, support de vieux protocoles comme WINS ou NetBIOS, couche de compatibilité 32Bits, etc).

C'est sûr qu'Apple froisse régulièrement ses utilisateurs en cassant certaines choses (et j'étais le premier à raler à la fin du support 32Bits), mais c'est le seul moyen d'avancer et d'éviter d'empiler des couches et des couches de choses inutiles.

Quand je vois le nombre de logiciels qui tournent encore en version 32Bits en 2021 sur ma machine Windows alors que ça fait 15 ans que Windows x64 existe, je ne trouve pas ça normal. Mais tant que ça fonctionne, ça ne poussera pas à la transition complète.

avatar Silverscreen | 

Bon, on a eu droit aux comparaisons complètement délirantes (un PC desktop avec carte graphique dédiée à 100W vs le MacMini et sa puce graphique intégrée à 15W) pour prouver que la puce M1 n’était pas novatrice. Maintenant qu’on va passer à la nouvelle architecture et aux puces Apple Silicon de milieu-haut de gamme dans 1 à 4 mois, la défense d’Intel va être de moins en moins tenable. Oui les puces x86 sont encore les plus puissantes mais:
1- pour combien de temps ?
2- A quel coût (énergie, prix, dégagement thermique) ?

D’ailleurs on est pas à l’abri que si les perfs sont vraiment là avec les prochaines puces Apple Silicon, on récupère des acteurs de premier plan sur Mac.

Pour le gaming, j’ai deux questions :
- combien de temps avant que le jeu en streaming devienne la norme ?
- combien de temps avant qu’un Mac ou un iPad soit plus puissant qu’une console de jeu de salon ? 2-3 ans ? Et qu’on voie porter des jeux AAA sur l’écosystème Apple…

avatar Silverscreen | 

Second problème : il se vend 1 ordi ou 10 smartphones et à peu près 1 ordi pour 1 tablette. Apple a un écosystème dorénavant basé sur une architecture unique et des outils de développement facilitant énormément le passage d’une plateforme à l’autre quand c’est pas du développement simultané.
Dans les faits, c’est le seul acteur où si tu développes avec ses outils, tu touches tous les marchés (PC, mobile). Donc on va voir plein de portages iPhone->iPad->Mac et puis un moment ça sera carrément plus rentable de développer du jeu AAA pour Apple - tout système confondu - que pour PC

avatar RonDex | 

@Silverscreen

« Donc on va voir plein de portages iPhone->iPad->Mac »

Je le suppose…. je l’espère.

avatar Ghaleon111 | 

Les consoles ont des perfs cpu multi core de ryzen 2 3600 (le m1 bien en dessous en multi core) et un gpu entre 2070 et 2080 soit 50x plus puissant que le gpu intégré dans le m1 donc il faudra de très nombreuses années pour que les Mac puissent rivaliser en gaming.

avatar marenostrum | 

depuis le début n'ont pas voulu s'occuper des joueurs et les jeux. avec raison, parce que ils font plus d'argent que les autres concurrents. leur but est de faire du pognon, pas de concurrencer les consoles.

avatar Silverscreen | 

@Ghaleon111

Je ne vois pas d’où tu sors que les consoles ont 50 la puissance graphique d’une puce M1.

1-De ce que j’ai trouvé, la partie graphique de la puce M1 développe plus de teraflops que celle de la PS4 (2,6 vs 1,84 TFLOPS) alors que les consoles PS4 et XBOX de même génération représentent encore 90% du marché…

2- La partie graphique de la PS5 c’est 10,28 TFLOPS pour une console qui doit tenir 4-5 ans minimum.

3- Les puces Ax, c’est environ 50% de gain par an en performances. On peut s’attendre au même type de progression sur les puces Mx.
Donc 4 TFLOPS en octobre 2021, 6 en 2022, 9 en 2023 et 13 en 2024. 3 ans pour avoir un GPU qui dépasse nettement la dernière génération de consoles …

C’est encore très théorique ces gains mais Apple a pour elle l’économie d’échelle, l’intégration logicielle et le fait de payer d’avance TSMC et de s’assurer ainsi longtemps l’exclusivité sur la production de puces utilisant la plus petite taille de gravure.

Intel va rester très longtemps le partenaire incontournable pour plein d’industries (l’inertie est toujours très forte) mais il doit y avoir beaucoup de monde chez Intel et ailleurs qui doivent guetter la puce M2 avec angoisse.

avatar coink | 

@Silverscreen

Et encore, le M1 a 8 cœurs gpu uniquement. Si ils en mettent 32 ou 64 comme annoncé ils dépassent la PS5 cette année …

avatar byte_order | 

@coink

Oh ben pourquoi faire le timide, Apple n'a qu'a en mettre 512 et hop.
J'adore vos logiques de progression bien linéaires, surtout ne changez pas.

avatar coink | 

@byte_order

Et oui le calcul gpu c’est par nature multithread…
Le M1X leaké pour cet été est en 12 cœurs cpu et 12 gpu. Les rumeurs parlent de puce 64 et 128 cœurs pour les gammes desktop pro.
Quand ont voit ce qu’Amazon fait avec ses Graviton…

Intel ne lache pas les fauves pour rien.

avatar Ecrapince | 

@coink
>Et encore, le M1 a 8 cœurs gpu uniquement. Si ils en mettent 32 ou 64 comme annoncé ils dépassent la PS5 cette année …

Sauf que le ps5 son gpu c'est l'équivalent d'une gtx 1060 sortie en 2016 en terme de puissance brute... Juste comme ça, on est en 2021 coco, 2016 c'était ya longtemps hein. Et une gtx 1060 avant la pénurie, à cause des mineurs de crypto, ça coutait 100-120€. Sans la folie crypto on la trouverait à 70 ou 80€ en promo...

Vous trouvez pas que c'est littéralement minable de ce dire que vous bavez sur un composant qui coutait à peine 100 balles neuf ya quelques mois et que vous êtes en train de vous imaginer que c'est de la folie amazing it's a revolution alors qu'on parle d'un composant périmé qui date d'ya 5ans ?

avatar Ghaleon111 | 

@Ecrapince

Non l’équivalent ps5 c’est supérieur à 2070/5700xt en plus d’être rdna2 et à donc les nouvelles techno 2021 et l’équivalent au dlss 2 de amd arrive très bientôt sur console entre autre chose.

avatar coink | 

@Ecrapince

Non en puissance brute la PS5 c’est une gtx2070 autour de 10Tflops
Et oui un composant qui vient du monde du smartphone et qui en 2 ou 3 versions vient taquiner des composants qui ont 20ans d’amélioration continue dans le desktop c’est remarquable.

avatar Ghaleon111 | 

Un m1 a un peu de mal rien que faire tourner wow qui est loin de tourner en ultra alors qu’il n’est pas gourmand alors que l’équivalent console supérieur à la 2070 fait tourner les plus beaux derniers jeux pc en ultra 60fps mini pour la plupart donc le gpu du m1 est à des ANNÉES-LUMIÈRE.
Un jeu comme rdr2 il faudra je ne sais combien d’années pour que ça puisse tourner même en low sur le m1 alors que ça tourne quasi en ultra sur une 2070.
Autant le m1 est très bon au niveau cpu mais niveau gpu on est même mais vraiment extrêmement loin d’une 1660 super, gpu pc a moins de 250 euros qui est inférieur à ce qui équipe les nouvelles console et je ne parle même pas de l’équivalent du dlss qui n’existera jamais chez Apple.

J’oubliais, le gpu du m1 est encore loin de faire tourner les jeux aussi bien qu’une ps4 de 2013 puisque la puce gpu du m1 fait un peu moins bien que le gpu intégrer des cpu intel.

avatar Ecrapince | 

@Silverscreen
>2- La partie graphique de la PS5 c’est 10,28 TFLOPS pour une console qui doit tenir 4-5 ans minimum.

Une rtx 3070, sortie ya 7 mois, c'est 20TFlop et 30 TFlops pour la rtx 3080. :)

Pour fin 2022 on aura surement la série des rtx 40x0, avec une 4080 qui fera du 40/45 TFlops si ça suit la courbe des dernières générations. C'est pas demain la vieille qu'apple va arriver au niveau du monde PC. :)

Et puis c'est pas comme si on savait depuis l'an 2000 que le matériel des consoles est toujours à la traine et dépassé avant même la commercialisation... ah bah si on le sait à chaque fois. :D

C'est complètement débile et de mauvaise fois de vouloir comparer une plateforme qui bouge pas, ou à peine, pendant presque 10ans avec une monde qui évolue souvent. Compare apple avec nvidia et amd pour être un minimum crédible. :)

Et comme on le voit avec la 4k le cpu devient un élément secondaire quand tu cherches à afficher beaucoup de FPS. A trois poils de cul près t'auras autant de fps avec un cpu à 250€ qu'avec un à 800€ en 4k

avatar ohmydog | 

@Ghaleon111

C’est pas vraiment le cas non.
Apple se concentre sur l’efficacité énergétique. Ta carte graphique tire 10 fois l’energie necessaire au M1, et le processeur 2 à 3 fois.
Avec plus d’électricité les performances sont meilleures… rien de nouveau en fait.
Donc si apple tirait 300W, les performances seraient améliorées. Mais ce n’est pas ce qu’ils veulent !

avatar Ghaleon111 | 

@ohmydog

on parlait pas de ça, plus haut ça dis qu’en gaming il ne faudra que deux ou trois ans pour faire mieux que les consoles hors ce sera très loin d’être le cas vu les perfs anémiques du gpu du m1 comparer à une vraie cg dédiée.

avatar RonDex | 

« l'absence d'écran tactile »
l’iPad pro M1 ?! 🙄

Pour le gaming il y’a pas mal d’offre de streaming. 🤷‍♂️
Ça évite de devoir mettre à jour régulièrement sa CG et co. Il faut certes avoir une bonne collection internet.

avatar byte_order | 

@Ron Dex
> Pour le gaming il y’a pas mal d’offre de streaming. 🤷‍♂️

Ce qui prouve bien qu'il faut une seconde plateforme, tierce (et pas sur technos Apple).

> Il faut certes avoir une bonne collection internet.

Et un bon écran. Parce que jouer pendant des heures sur un écran de smartphone, bonjour la génération de mal voyant qui se prépare...

avatar ElFitz | 

@byte_order

Avant on jouait des heures sur des écrans de GameBoy, Game Gear, GameBoy Color, Advance, PSP, NintendoDS… La plupart sans rétro-éclairage. Un problème ?

avatar Thaasophobia | 

Les Mac doivent se vendre comme des petits pains pour qu'Intel se lance dans ce genre de communication idiote.
Ils ont vraiment l'air d'être aux abois.

avatar vicento | 

@Thaasophobia

Carrément ! Si Intel alloue des budgets com conséquents pour dénigrer Apple c’est sûrement qu’ils n’ont pas vraiment le choix et voudraient arrêter de subir l’image du M1. Quand on pense que le M1 n’est que la première version du processeur Apple intégrée dans un Mac, ça risque de faire très mal en effet et de donner de bonnes idées à Google and co

avatar Ecrapince | 

Ou alors c'est à cause de la bonne rigolade qu'apple nous a offerte ya quelques jours et dont on a eu une news sur macg à propos de la capacité du nouvel imac à nous offrir des jeux comme on en a jamais vu ? :)

avatar Dimemas | 

franchement chez intel, c'est de plus en plus ridicule...

remarquez, ça explique pourquoi des idiots en viennent à vous soutenir mordicus que jouer en 4K à 60fps contre 30fps sur un écran de 24 ou 27" c'est mille fois mieux ! :D
J'ai vu ça il n'y a pas très longtemps, je me suis demandé dans quel monde j'étais

Pages

CONNEXION UTILISATEUR