[Accès libre] Après l'Apple M1 : ce qui nous attend… et pourquoi Intel aura du mal à suivre

Jean-Baptiste Leheup |
Club iGen 👑

Cet article réservé initialement aux membres du Club iGen est exceptionnellement en accès libre à compter d'aujourd'hui. Pour découvrir tous les articles exclusifs du Club iGen et d'autres avantages, abonnez-vous !

Maintenant que le processeur M1 est largement utilisé, il ne fait pas de doute qu'Apple a gagné son pari. Son processeur est aujourd'hui unanimement salué, et pas seulement dans le monde Apple. À part Intel, tout le monde s'accorde sur le fait que le système sur puce M1 est habilement conçu, puissant, économe, et particulièrement bien mis à profit par macOS et ses technologies. Et pourtant, il reste de belles marges de manoeuvre pour des améliorations que nous verrons sans doute apparaître au cours des prochains mois.

Le processeur M1, le plus petit des Apple Silicon

Aujourd'hui, le processeur M1 est au sommet de la gamme Apple Silicon. Il est le caïd de la famille, plus gros et plus fort que ses petits frères A13 et A14 embarqués dans les gammes iPad et iPhone. Et il n'a même pas peur d'aller se bagarrer dans la cour des grands. Mais viendra un temps où l'on se souviendra avec nostalgie de ce petit nouveau.

Car sur le papier, comparé aux processeurs qui équipent les autres ordinateurs, le M1 n'est pas si impressionnant. Pour commencer, il est tout petit. À peine 120 millimètres carrés, soit un ongle de pouce. L'Intel Core i9 de l'iMac est presque deux fois plus gros, et le Xeon du Mac Pro, six fois plus gros. Autrement dit : Apple peut sans difficulté envisager d'étendre son processeur pour y caser plus de cœurs, plus de mémoire cache, et plus de mémoire vive…

En termes de consommation, c'est aussi le petit poucet des processeurs du moment. Un Mac mini à fond la caisse consomme moins de 40 watts, tout en chatouillant l'iMac Pro qui en consomme 370. Apple n'est donc pas limitée par cet aspect. En quelque sorte, la gamme Apple Silicon permet à la marque de repartir d'une feuille presque blanche, sans contrainte particulière.

Il n'y a guère que sur la question de la cadence d'horloge qu'Apple n'a pas lésiné sur les moyens. Son premier processeur est directement calé sur une fréquence de 3,2 GHz, loin d'être ridicule au milieu de ses concurrents. Mais cette fréquence est atteinte avec une finesse de gravure de 5 nanomètres, qui doit offrir une marge que l'on ne connaît pas encore, puisqu'Apple est la première à s'y aventurer. On sait cependant qu'AMD dépasse cette fréquence avec la quasi-totalité de sa gamme Ryzen pourtant gravée en 7 nm. Et Intel, qui n'a peur de rien, parvient à maîtriser son i9 en 14 nm à près de 5 GHz.

Dans la communication d'AMD, on a toujours l'impression que ses processeurs Ryzen Threadripper sont à deux doigts de prendre feu…

Reste la question du coût. Là encore, il faut mettre tout le monde à l'aise : il y a de la marge. Un cadre d'IBM s'est lancé dans une estimation du coût du M1 pour Apple et pense pouvoir affirmer que chaque M1 coûte environ 50 $ à fabriquer. Apple a en quelque sorte internalisé le coût du développement de ce processeur, qui était auparavant facturé par Intel. Si elle doit maintenant payer elle-même les ingénieurs qui mettent au point ses processeurs, elle empoche en contrepartie une partie des copieux bénéfices qu'Intel engrangeait année après année.

M1, ce processeur dont on ne sait presque rien

Ce qui complique l'exercice de divination auquel je me prête aujourd'hui, c'est qu'on en sait relativement assez peu sur les spécifications techniques du processeur M1, malgré le travail d'analyse de l'A14 par Anandtech. Apple ne travaille que pour elle-même, contrairement à Intel, et n'a donc divulgué que les informations strictement nécessaires.

Parmi les éléments manquants, on ignore tout de la dotation en lignes PCIe des processeurs Apple Silicon. Jusqu'à présent, cette donnée n'avait que peu d'importance, que ce soit pour l'iPhone, totalement fermé, comme pour le Mac mini et le MacBook Air, dont les capacités d'extension se résument à quelques ports Thunderbolt. D'autant plus que, rappelons-le, le processeur M1 intègre la partie graphique, qui occupait auparavant plusieurs lignes PCIe (généralement, quatre lignes pour une petite carte graphique, mais jusqu'à vingt-quatre pour chaque carte AMD Radeon Pro Vega II Duo du Mac Pro 2019).

La répartition des ressources PCIe entre les différentes cartes est un enjeu important dans la configuration d'un Mac Pro

En intégrant la puce graphique à son système sur puce, Apple a sans doute pu réduire le nombre de lignes PCIe gérées par son système. Mais dans le même temps, on a vu grimper les exigences du Thunderbolt, au point que sa version 4 exige que chaque port dispose d'une capacité PCIe de 32 Gbit/s. Apple tente actuellement de noyer le poisson en n'annonçant pas officiellement de compatibilité avec le Thunderbolt 4. Elle ne pourra pas éternellement rester sur cette ligne.

Une partie de la réponse est peut-être dans le PCIe 4.0. Cette nouvelle version qui se démocratise depuis deux ans double le débit de chaque ligne, permettant ainsi d'économiser des ressources. On ne sait pas encore avec certitude si le processeur M1 gère cette nouvelle version de la norme, mais ce serait une solution pour offrir sans difficulté le niveau de connectivité des anciens Mac sans nécessiter autant de lignes physiques. Mais il y a un bémol : le PCIe 4.0 est surtout une version accélérée de la version précédente, avec peu d'optimisations. Ses composants chauffent donc beaucoup plus que ses prédécesseurs, ce qui est un frein à une adoption massive dans les petites configurations M1.

Pourquoi Apple ne proposera bientôt plus de carte graphique

Cette intégration d'un nombre croissant de fonctions au sein d'une seule puce est un mouvement de fond pour Apple. Le mouvement originel du « tout soudé » n'était qu'un début, avant la phase du « tout en un ». Il y a fort à parier que les gammes iMac et MacBook Pro se passent définitivement de cartes graphiques dédiées.

Dans cet iMac Pro démonté par iFixit, la puce graphique n'est pas grand-chose, mais c'est une piste d'amélioration — et d'économie.

Si le « petit » M1 se contente de 8 cœurs graphiques, rien n'empêche Apple d'envisager un processeur plus richement doté, apte à propulser la gamme au niveau des cartes dédiées. Ajouter des cœurs supplémentaires à une architecture existante, c'est ainsi qu'Apple est passée de l'A10 à l'A10X ou de l'A12 à l'A12X. Et il n'y a pas beaucoup de retard à rattraper : les Mac M1 ne sont en retrait que de 10 à 30 % sur le MacBook Pro 16" et l'iMac 27" dotés d'une Radeon Pro 5300.

Autrement dit : si les 8 cœurs graphiques du M1 ne sont pas ridicules face aux cartes dédiées qu'Apple colle aujourd'hui dans sa gamme, sans doute une version enrichie pourra-t-elle venir chatouiller la Radeon Pro 5500 XT qui équipe avec ses 22 cœurs l'iMac haut de gamme. Car le rendu graphique est un domaine qui se plie fort bien à ces structures hautement parallèles où la charge de travail est répartie entre de nombreuses unités de calcul.

Dans une carte graphique, on trouve tout un troupeau de petites unités de calcul. Image Nvidia.

Là encore, Apple évitera d'enrichir un sous-traitant. Ayant habitué ses clients à des cartes de milieu de gamme ou issues du monde des ordinateurs portables, elle n'a pas besoin de s'attaquer directement aux monstres de Nvidia ou d'AMD et peut tranquillement nous assurer de meilleurs performances que la gamme précédente. Restera la question du gros Mac Pro, sur lequel nous reviendrons en fin d'article.

Pourquoi Intel n'applique-t-il pas les mêmes recettes ?

Loin de moi l'idée de tomber dans le sectarisme que l'on prête souvent aux clients d'Apple, mais ce décrochage du monde x86 face au monde ARM est l'une des questions récurrentes des observateurs depuis plusieurs mois. Qu'est-ce qui peut bien empêcher Intel d'appliquer les mêmes recettes à ses propres processeurs pour combler le fossé qui s'est creusé ? On imagine parfois qu'après tout, un processeur est un processeur, tout comme un vélo est un vélo. Il suffirait donc d'appliquer à un processeur x86 les mêmes solutions pour le rendre à la fois beaucoup plus puissant et plus économe.

Sauf que les « recettes miracles » adoptées par Apple pour son M1 sont intimement liées à l'architecture ARM qui le sous-tend. Dans cette architecture, les instructions traitées par le processeur ont une longueur fixe qui facilite leur dispersion entre les différentes unités de traitement. À l'inverse, dans l'architecture x86, les instructions se succèdent à un rythme irrégulier, ce qui complique la tâche du processeur. Intel et AMD ont inventé quelques astuces, comme un système qui tente de deviner où démarrera la prochaine instruction pour l'exécuter sans attendre. Mais plus on y a recours, plus le taux d'erreur augmente.

Les difficultés actuelles d'Intel sont le prix de la compatibilité au long cours et du refus de repartir à zéro. Image Intel.

Tout ce qui pouvait être fait pour pousser l'architecture x86 dans ses derniers retranchements a été fait. Dès les années 1990, les processeurs 486 puis les Pentium ont adopté au plus profond de leurs transistors une structure décomposant les complexes instructions de haut niveau en micro-opérations élémentaires, plus aisées à manipuler, à réordonner et à anticiper. Ce choix technologique a également permis, au début des années 2000, de développer l'Hyper-Threading, où chaque cœur est mis à disposition de deux files d'attente d'instructions : à chaque fois que l'une des deux laisse un « blanc », l'autre file d'attente en profite pour lancer ses propres instructions. Et depuis quelques mois, Intel cherche à associer deux types de cœurs dans ses puces, à la manière de la technique big.LITTLE d'ARM. Ces méthodes ont permis d'optimiser les ressources matérielles en compensant les faiblesses héritées de la conception très linéaire des premières puces d'Intel.

Résultat : depuis quelques années, à défaut de pouvoir encore optimiser la gestion des instructions, on assiste plutôt à une multiplication des cœurs, au prix d'une explosion de la consommation électrique, du dégagement de chaleur et du coût de fabrication. Intel propose un Core i9 disposant de 10 cœurs physiques, qui tutoie les 200 watts à lui tout seul. Chez AMD, le fleuron de la gamme est actuellement le Ryzen Threadripper 3990X, un véritable monstre : un PC équipé de ce processeur à 4 500 $ peut atteindre une consommation de 1 000 watts quand il active ses 64 cœurs. Mais il se montre alors dix fois plus rapide qu'un Mac M1 sous CineBench et cinq fois plus rapide sous GeekBench.

Pour refroidir votre Threadripper, pensez à investir dans un ventilateur, comme ce modèle IceGiant ProSiphon Elite gros comme trois Mac mini…

Rien n'empêcherait aujourd'hui Intel de repartir aussi d'une page blanche. Elle en a d'ailleurs eu l'occasion en 1997 en rachetant à DEC sa famille de processeurs StrongARM, rebaptisée XScale. Elle n'a cependant pas trop su quoi en faire, et l'a revendue dix ans plus tard. Faute de succès des processeurs ARM dans le monde PC, Windows ARM n'a pas percé. Et puisque Windows ARM n'a pas percé, personne ne veut investir dans un processeur ARM pour le monde PC. Enfin, Qualcomm montre bien une certaine ambition dans le domaine, mais le fabricant vient juste de s'adjoindre les services d'anciens d'Apple pour tenter de rattraper son retard sur le processeur M1. Il est donc toujours aussi difficile de renoncer à ce qui fait l'essence de l'architecture x86, car tout l'écosystème du PC repose sur ces fondations, à commencer par Windows. C'est le serpent qui se mord la queue — pour le moment.

Verra-t-on un Mac Pro Apple Silicon ?

L'architecture ARM se prête facilement à la multiplication des cœurs, d'autant plus qu'Apple a organisé de longue date son système d'exploitation pour en tirer parti. Si Apple a le moindre doute sur la possibilité de caser toujours plus d'unités de calcul dans une puce, elle pourra s'intéresser à la microarchitecture Neoverse N1 qu'ARM diffuse depuis 2019. Le concepteur californien Ampere Computing en a tiré la puce Altra, dotée de 32 à 80 cœurs physiques (et bientôt 128). Grâce à une gravure à 7 nm, ce paquebot de 80 cœurs cadencés à 3,3 GHz, capable de gérer huit canaux de mémoire vive (contre six pour le Mac Pro actuel) et 128 lignes PCIe (contre 64 pour le processeur Xeon du Mac Pro, soit quatre fois moins de débit compte tenu de la différence de génération) se contente d'une enveloppe thermique (TDP) de 250W, à peine plus que le Xeon, dont les 28 cœurs tournent à 2,5 GHz.

Image Ampere Computing

Comme si un seul de ces cerveaux ne suffisait pas, Ampere a prévu la possibilité de les associer deux par deux. Des ordinateurs bi-processeurs, comme Apple a cessé d'en proposer depuis 2012. Pourtant, le jeu en vaut la chandelle : selon les tests, la version 80 cœurs de l'Altra peut se montrer trois à cinq fois plus rapide que le Xeon, pour la moitié de son prix !

En attendant, la question du Mac Pro est une vraie épine dans le pied d'Apple. La marque est consciente que ce modèle est incontournable dans sa gamme, car il lui donne une légitimité auprès d'un public exigeant. Sans Mac Pro, sa gamme ne paraîtrait pas très professionnelle. Or jusqu'à présent, pour fabriquer un Mac Pro, ce n'était pas très compliqué. Il suffisait de faire une grosse boîte et d'y inclure un gros processeur produit par Intel. Apple a bien essayé d'expliquer aux professionnels qu'ils pouvaient se contenter d'un petit cylindre discret et silencieux, mais ça n'a pas marché : elle a dû se résoudre à leur proposer à nouveau un gros machin plein de vide avec une alimentation électrique digne d'une friteuse.

Le Mac Pro est gros, car il est plein de vide : ici, la moitié de son volume est occupée par les deux modules Radeon Pro Vega II Duo, une option à 12 000 €.

Mais au moins, Apple n'a pas eu à inventer le processeur qui va avec. Pour le plus puissant Mac Pro, le tarif public du Xeon W-3275M à 28 cœurs se situe aux alentours de 7 000 €. Intel en vend des palettes entières, car la plupart d'entre eux terminent dans des fermes de serveurs, où leurs nombreux cœurs font merveille pour servir plusieurs clients ou faire tourner plusieurs machines virtuelles en parallèle. Pour Apple, c'est juste un achat comme un autre, qu'elle rentabilise en vendant la machine au bon prix.

Mais voilà, pour équiper son futur Mac Pro d'un processeur à la hauteur de la gamme Xeon d'Intel, ou de leurs concurrents Threadripper d'AMD, Apple va devoir inventer son propre monstre de puissance. Et comme elle n'a sûrement pas l'intention de le vendre ensuite à ses concurrents, il faudra qu'elle rentabilise toute seule la recherche, le développement et la fabrication de ces processeurs. Elle a peut-être un projet secret consistant à envahir les centres de données, mais en attendant, la cible du Mac Pro ne semble pas suffisante pour rentabiliser l'investissement de base.

Faire des trous dans du métal, c'est bien, mais produire un processeur professionnel, c'est beaucoup plus compliqué… Image Apple

Il sera intéressant de voir quels seront les choix d'Apple en la matière. Multiplier les cœurs dédiés à l'intelligence artificielle (comme le Neural Engine) ou les cœurs GPU ne suffira pas à offrir une machine capable de se confronter à la force brute des modèles Intel ou AMD. On n'imagine quand même pas qu'Apple va proposer un nouveau Mac Pro doté d'un processeur x86 : ce serait reconnaître qu'elle ne peut pas concurrencer Intel sur le terrain de la puissance. Même à titre provisoire, ce serait un message négatif, dont Intel s’empresserait de tirer un profit médiatique.

Apple a-t-elle dans ses cartons un super-processeur à plusieurs dizaines de cœurs, peut-être pas rentable, mais capable de servir de vitrine technologique à Apple Silicon ? Un M1X, M1 Pro ou M2 qui serait ensuite adapté au reste de la gamme ? Va-t-elle développer des systèmes multi-processeurs en associant deux, quatre, voire des dizaines de ses petits M1 ? Va-t-elle développer ses propres cartes d'extension pour externaliser la puissance de calcul à la mode GPGPU ?

Et quand Apple aura résolu cette question, il lui en restera une autre : le design. On a entendu dire qu'elle réfléchissait à un Mac Pro de taille réduite. Cela signifierait qu'elle renoncerait à la possibilité d'offrir des emplacements pour des cartes d'extension, qui justifient à eux seuls le volume de l'actuel Mac Pro. Alors, retour au Mac Pro « poubelle » ou maintien d'un Mac Pro « camion » ? L'avenir s'annonce passionnant !


avatar YetOneOtherGit | 

@fornorst

"C’est pour ça que je vois plus du multi puce"

Tu peux le voir mais cela va absolument à l’encontre de l’état de l’art 😎

avatar YetOneOtherGit | 

@fornorst

"augmenter la taille du die veut dire pas mal de R&D et un process de fabrication spécifique"

Pour te donner un ordre d’idée TSMC est aujourd’hui capable de produire des die intégrants 5x plus de transistors que le M1.

avatar YetOneOtherGit | 

@fornorst

"en multi puces "

Le multi CPU discret c’est quasiment mort aujourd’hui, l’intégration se fait sur le die. 😉

avatar fornorst | 

@YetOneOtherGit

Je ne parlais pas vraiment de ça mais du fait que le M1 est rempli de coprocesseurs dédiés quand un processeur x86 est plutôt un seul gros processeur qui sait tout faire

avatar YetOneOtherGit | 

@fornorst

"un processeur x86 est plutôt un seul gros processeur qui sait tout faire"

Pas vraiment les CPU d’Intel intègrent elles aussi beaucoup de fonctions sur le même die et les chipset deviennent de plus en plus réduits.

avatar YetOneOtherGit | 

@fornorst

"MacPro que de développer une puce spécifique"

La “spécificité” des variantes du M1 sera toutes relatives.

C’est la démultiplication des éléments déjà existants sur le M1 qui fera les variantes créant un effet de gamme.

L’architecture du M1 est hautement “scalable”

Et comme le type de tâche habituellement effectué sur un MacPro sont de celles qui se parallèlisent remarquablement bien et tirent parti des approches GPGPU un Mac Pro démultipliant les coeurs à l’extrême semble être plus qu’envisageable.

avatar fornorst | 

@YetOneOtherGit

Pour les iMac et les MBP 16 pouces, je suis d’accord mais pour un MacPro vendu 10 fois le prix de ces machines, j’en suis moins sûr. Mais c’est comme lire dans une boule de cristal : on n’est encore sûr de rien, seul Apple doit déjà savoir ce que sera le futur MacPro :)

avatar YetOneOtherGit | 

@fornorst

"Mais c’est comme lire dans une boule de cristal"

Nope on peut se faire une idée assez claire du champ des possibles à partir de l’état de l’art et en connaissant les technologies 😉

Savoir ce que ne fera pas Apple est plus simple que de savoir ce qu’ils feront précisément dans ce cadre.

Il y a des approches qui sont rationnellement très peu envisageables.

La démultiplication de chips en fait parti.

avatar ya2nick | 

@fornorst

Vu les perfs des cpu Ampère, imaginons un Mac Pro avec un processeur M1XL avec 80 cœurs (voir beaucoup moins de cœur), je crois que les performances d’une telle bête n’aurait rien à envier aux derniers Xeons.

avatar Krysten2001 | 

@Ndrix68

« Apple la déjà démontré a plusieurs reprises, elle anticipe énormément. »

Des exemples par curiosités ?😎

avatar Uriah Heep | 

Tout est dit par mes prédécesseurs. Article très intéressant, pertinent... MacG joue vraiment dans la cour des grands 👏

avatar YetOneOtherGit | 

“Rien n'empêcherait aujourd'hui Intel de repartir aussi d'une page blanche. Elle en a d'ailleurs eu l'occasion en 1997 en rachetant à DEC sa famille de processeurs StrongARM, rebaptisée XScale”

Les tentatives d’Intel de se “libérer” du x86 furent nombreuses:
- L’ambitieux iAPX 432 au début des années 80. Premier processeur 32 bits d’Intel, très ambitieux dans son approche de rupture, mais une usine à gaz aux performances catastrophiques qui fût un échec commercial.

- Suite à l’échec de ce processeur qui était l’absolu antithèse de l’approche RISC, Intel explora l’approche RISC avec le i960 sorti au milieu des années 80. Cette architecture eu une longue vie mais son usage ne fut pas sur des usages de CPU classiques.

- Le i860 lui aussi RISC et apparu à la fin des années 80. Incompatible avec le i960, introduisant le concept de VLIW. Les usages furent aussi de niches.

- Et pour finir la dernière tentative ambitieuse de faire exister une alternative Intel aux x32/x64 : Les Itanium 1&2 basé sur l’architecture EPIC developée en collaboration avec HP et introduite au début du siècle. L’approche pousse l’usage du VLIW et reporte beaucoup d’enjeux de performance sur le compilateur. Ces CPU ont équipés de nombreuses offres de serveurs et ont été commercialisés durant presque 20 ans sans pour autant remettre en question la domination du x32/x64

avatar raoolito | 

Excellent article!
Un bémol

« Et quand Apple aura résolu cette question »
Je soupçonne fort qu’apple a deja résolu cette question, je les imagine mal lancer la transition sans savoir déjà où ils vont. Rien que le temps de conception d’un proc interdit qu’il soit aujourd’hui à se demander « bon comment on va faire pour le mac pro » :)

avatar YetOneOtherGit | 

@raoolito

"« bon comment on va faire pour le mac pro »"

Ils peuvent aussi décider de s’en débarrasser 😂

Commercialement il est largement dispensable.

Mais, personnellement, je crois au contraire que dans le cadre de la transition ARM un flag-ship a bien plus de raison d’être que précédemment.

Je crois qu’un Mac Pro démonstration des savoir-faire d’Apple viendra couronner l’offre et qu’il mettra une grosse claque à toutes les offres concurrentes de station de travail.

Wait & See

avatar raoolito | 

@YetOneOtherGit

Et puis ca rassure sur l’avenir. Le « gros » proc devient souvent les bases de réflection des proc moyenne gamme puis bas de gamme ( versions épurées)
Bon ca montre le savoir faire aussi c’est certain ce qui rassure également

Perso, loin d’une gamme réduite de mac je vois arriver une gamme plus étoffée en fait

avatar YetOneOtherGit | 

@raoolito

"Le « gros » proc devient souvent les bases de réflection des proc moyenne gamme puis bas de gamme "

Pas forcément de nos jours , les approches jouent beaucoup sur la “scalabilité”

Une version haut de gamme va s’appuyer sur un die de plus grande surface, donc plus onéreux à produire, où l’on peut intégrer plus de portes logiques et donc démultiplier: les divers coeurs, les caches ...

Les unités de base restent les même sur toutes les offres mais on les démultiplie.

Et les innovations de generations de CPU ont au contraire tendance à apparaître sur les SOC d’entrée/milieu de gamme où les volumes de ventes permettent bien plus rapidement d’amortir les investissement de R&D.

avatar raoolito | 

@YetOneOtherGit

Oh joli!
Ok merci 🙏

avatar gafa and chill | 

Génial merci

avatar Frodon | 

Si je comprend bien, le processeur Ampère Altra, qui est un processeur ARM, est déjà capable de rivaliser et même de dépasser les meilleurs Intel Xeon ou AMD ThreadRipper, donc cela démontre que c’est faisable.

Après niveau rentabilité à voir. Mais il est probable que le Mac Pro sera le dernier migré en Apple Silicon, et donc tirera partie des derrières avancées, dont celle utilisé dans l’Altra, et ensuite sera décliné en version moins performantes, avec moins de cœurs, pour les mises à jour des gammes inférieures. Ce qui aidera à rentabiliser la R&D.

avatar cv21 | 

Excellent article, comme d'habitude. Merci.
J'ai beau aimer les mac lorsque je consulte un site celui-ci est probablement hébergé sur un PC intel ou AMD pas un M1. Idem pour les produits de stockage, traitement, des machines le plus souvent avec Intel, ARM ? Enfin, si je me mets dans la peau d'un pciste sans Cuda c'est nul 😔. Logiciels absents sur mac. Tout cela pour dire qu'il reste beaucoup de place pour d'autres CPU, GPU et Os. Apple semble tout de même bien parti pour maintenir ou accroître sa part du gâteau.

avatar raoolito | 

@cv21

Tout est vrai
Mais les m1 sont en vente depuis 4,5 mois et on a vu dans l’article que le monde arm est deja synonyme de puissance brute et performance meme dans le monde des serveurs

L’iphone ne devait rester qu’un gadget de geek, l’usb etait une niche inutilisee quand l’imac est sorti, et qui aurait donné un kopeck sur AMD il y a 10ans?

L’informatique est un ocean, et tout marin sait bien que la vague face à lui est moins importante sur la suite du voyage que celles cachées derrière !
( trop fier de celle-là)

avatar mne | 

Je verrais bien Apple proposer une gamme de Mac mini pro pour remplacer le Mac Pro
Avec une capacité à se chaîner sans limite et avec peu de pertes, et une connectivité basée sur le thunderbolt pour que les constructeurs puissent créer des extensions dessus
Ce qui aurait dû être la vraie bonne idée du Mac Pro poubelle

avatar frankm | 

Très bon article merci.
L’atout d’Apple est de ne pas hésiter à faire table rase au détriment de l’ancien. Et Intel / Windows c’est le contraire, ça reste rétrocompatible avec l’ancien au risque d’être has been.
L’un est cher et l’autre moins cher, ça ne peut pas être autrement

avatar Lucas | 

Merci beaucoup MacG & Jean-Baptiste, et bravo ! 🙏👏 Hâte de voir ce que cela va donner...!

avatar 406 | 

un boitier entre les deux où on ne pourrait pas mettre de disques 3,5 mais que du NVME et du SSD (ou disque) 2,5. pas envie de revoir les tentacules version pieuvre quand le mac poubelle est arrivé.
un peu comme les petits NAS de synology DS414 slim

avatar YetOneOtherGit | 

@406

Les disques SATA en interne très peu de chances que cela existe sauf peut-être sur un très haut de gamme et encore.

Les possibilités d’extensions de la génération actuelle de Mac Pro sont bien plus la pour des raisons psychologiques que rationnels.

La plus grande part des machines finiront leur vie dans l’exact configuration de sortie d’usine, c’est un phénomène bien connu des fabricants de station de travail mais le client n’est pas un être rationnel même sur des usages professionnels 😃

avatar passingphantom | 

Super article, qui remet les choses en perspective.

avatar gaurejac | 

La question interessante, à laquelle je ne sais pas répondre c'est bien les lignes PCIe et si oui ou non l'affichage et les fonctions d'encodage reposeront sur des cores GPU internes ou des cartes graphiques externes...

Parce que c'est là qu'est un gros avantage du M1 : les cores GPU sont dans le die et ils ont une vitesse et latence communication avec le CPU imbattables avec l'avantage de la mémoire unifiée. La latence ne peut qu'être dégradée par des GPU externes.

Alors qu'est-ce qui sera fait ? Sur les iMacs et MacBook Pros on peut raisonnablement être certain qu'il n'y aura pas de GPU discret relié par des lignes PCIe, ne serait-ce que par la contrainte de l'enveloppe thermique et du refroidissement qui a toujours été un frein sur ces 2 modèles et que le M1 resoud en étant beaucoup plus efficient.

Sur le futur Mac Pro il y aura certainement des ports d'extension PCIe qui restent necessaires et exigés par les pros, mais est-ce que les cartes graphiques resteront externes et fournies par AMD ? on peut en douter...

Ça me tue de le dire mais le temps passe et il est très loin le temps où la machine "de base" était une tour G4 abordable et extensible.
Et on ne verra pas Apple proposer un produit compact mais extensible comme les NUC "elements" (qui combinent un boitier de moins de 2 litres avec un core 11e gen, des ports M2 et une carte graphique PCIe), ce n'est pas leur genre

avatar YetOneOtherGit | 

@gaurejac

"GPU internes ou des cartes graphiques externes"

Comme beaucoup, je pense qu’Apple ne fera plus appel à des GPU tiers et qu’il y a de grandes chances qu’ils soient systématiquement intégré au SOC.

avatar YetOneOtherGit | 

@gaurejac

"Mac Pro il y aura certainement des ports d'extension PCIe"

Est-ce si certain?

Y-t-il une offre conséquente de carte d’extension pour les actuelles Mac Pro ?

Des GPU tiers sans drivers serviront à rien.

Et les evolutions du TB font que bien des besoins autres peuvent passer par ce biais qui avait été exploré sans doute un peu tôt avec le Mac Pro 2013.

Je me demande si l’actuel Mac Pro ne sera pas le dernier Mac dans cette approche devenue atypique dans l’univers Mac.

Wait & See 👀

avatar oliverberard | 

Merci pour cet article de dingue

avatar totoguile | 

Quid des volontés d’Apple dans le Datacenter ? Après tout Apple pourrait aussi utiliser ses produits pour ses besoins de services dans le cloud, et pour les futurs besoins de puissance dans le cloud pour la voiture et la VR/AR?
Ça pourrait peut-être aider à rentabiliser l’une version pro du M1.

avatar YetOneOtherGit | 

@totoguile

"Quid des volontés d’Apple dans le Datacenter ?"

Quelle volonté ?

avatar totoguile | 

@YetOneOtherGit

Disons peut-être un projet ?

avatar YetOneOtherGit | 

@totoguile

"Disons peut-être un projet ?"

Ce serait assez surprenant tant le business des infrastructures est à des années lumières des savoir-faire commerciaux d’Apple et de son ADN.

Se diversifier sur ce pan de marché serait une vraie révolution copernicienne pour Apple.

A titre personnel je serai fort surpris d’une inflexion de ce type.

Et le cuisant échec XServe a sans doute laissé quelques traces 😎🤑

avatar YetOneOtherGit | 

@totoguile

"pour la voiture et la VR/AR?"

Ils n’ont pas attendu le M1 pour mettre l’architecture ARM au cœur de leur stratégie et les puces ARM sont déjà au cœur de l’électronique embarquée de l’automobile.

De même pour l’AR et la VR.

Bref sur ces secteurs la transition ARM des Mac ne change strictement rien à la donne qui était déjà du côté de l’ARM.

avatar totoguile | 

@YetOneOtherGit

Je parlais de l’arm dans les Datacenters pour les services vr /ar, pas de l’arm dans les devices

avatar YetOneOtherGit | 

@totoguile

"Je parlais de l’arm dans les Datacenters"

L’ARM dans les infrastructures ça avance relativement vite, par contre Apple s’y impliquant c’est une toute autre histoire.

Pour le reste tu parles d’approches Cloud Computing pour les usages AR/VR c’est ça ?

avatar totoguile | 

@YetOneOtherGit

Disons que ma compréhension du sujet me pousse à penser (peut-être a tord) qu’il faut aussi de la puissance cloud pour ces usages.

avatar YetOneOtherGit | 

@totoguile

"Disons que ma compréhension du sujet me pousse à penser (peut-être a tord) qu’il faut aussi de la puissance cloud pour ces usages."

Le fait de déporter les calculs dans le cloud peut sembler séduisant mais sur des usages AR/VR la latence est très problématique. 😉

avatar brunnno | 

"Faire des trous dans du métal, c'est bien, mais produire un processeur professionnel, c'est beaucoup plus compliqué…"

😂😂

avatar amonbophis | 

Comment se comportent des cartes d’extension avec un processeur ARM: c’est comme avec intel, il y a juste besoin des bons pilotes, ou ça ne marche pas?

avatar YetOneOtherGit | 

@amonbophis

"Comment se comportent des cartes d’extension"

Des cartes d’extension PCIe où ça ? 🤣🤣🤣🤣

avatar oomu | 

@amonbophis

faut que la dite carte prenne en charge le démarrage d'un mac (que son microcode ou "firmware" soit compatible) pour qu'elle fournisse ses fonctionnalité dès le démarrage (boot réseau pxe, écran de démarrage graphique, etc).

Au delà, je suppose qu'un pilote adéquat doit permettre à MacOs de l'utiliser. Si un tel mac arm avec connecteurs pcie existaient...

On ne connait pas les spécifications exactes d'un mac M1.

il ne suffit pas de dire "arm". Ici on parle de Apple Mac avec processeur "apple m1" : ce n'est pas que la nature "arm" du processeur qui compte, mais l'environnement de boot de la machine.

Un mac "arm" n'est pas équivalent à un téléphone android arm, un des rares serveurs "arm" ou autre machine avec cpu arm. Apple a conçu son propre environnement logiciel et matériel autour.

avatar YetOneOtherGit | 

@oomu

Et avant tout il faudrait que des Mac ARM proposent des bus d’extension internes PCIe ce qui est loin d’être certain.

avatar pasc75 | 

Je n’ai strictement rien compris mais j’ai lu quand même ! Ça semble être un super article et je suis contente de vous aider avec mon abonnement 😅. J’imagine que l’article a fait plaisir à plein de monde.
Pour le remercier vous pouvez demander à Apple de sortir vite l’iMac nouveau ? Mon late 2009 voudrait sa retraite méritée.

avatar oomu | 

@pasc75

oui, c'est un très bon article qui met en contexte les choix techniques d'Apple, le défi que doit relever Intel et ce que cela peut signifier pour la continuité du MacPro.

C'est effectivement pour ce travail que je suis abonné.

avatar Maisef | 

Bon article. Mais il me semble que l'auteur ainsi que les commentaires font l'impasse sur une solution d'avenir, le eFPGA qui pourrait être intégré aux futurs processeurs pro d'apple. Solution qu'apple a déjà en parti exploré avec la Carte Apple Afterburner des Mac Pro et son FPGA. Il est possible d'intégrer aux processeurs des "embeded FPGA ou eFPGA.
C'est la solution retenu par l'EPI ( European Processor Initiative) qui vise à développer un processeur européen pour les futurs supercalculateurs mais aussi pour le marché automobile et serveurs.
Un eFPGA est un circuit logique reconfigurable intégré au processeur ce qui peut être reconfiguré à la voler pour exécuter en hardcore un algorithme spécifique ce qui peut multiplier par 100 la vitesse exécution par rapport à un processeur généraliste. Il est donc possible d’adapter les jeux d’instruction hardware en fonction du logiciel qui tourne. Et d’implémenter de nouvelles fonctions matérielles aux processeur (nouveaux codex video, nouveaux filtres photoshop, nouveaux algorithme crypto et sec etc…)
Intel et AMD ont respectivement racheté Altera et Xilinx deux poids lourd des FPGA. C’est certainement pour eux aussi une voix pour améliorer le rendement de leurs processeurs.

avatar YetOneOtherGit | 

@Maisef

"l'impasse sur une solution d'avenir, le eFPGA"

Tu vas peut-être un peu vite en besogne, ce type d’approche ouvre un champ des possibles sur des usages ne niche mais ne substitue pas aux approches standards : elle les complète à la marge.

avatar Maisef | 

Bon article. Mais il me semble que l'auteur fais l'impasse sur une solution eFPGA qui pourrait être intégré aux futurs processeurs pro d'apple. Solution qu'apple a déjà en parti exploré avec la Carte Apple Afterburner des Mac Pro et son FPGA. Il est possible d'intégrer aux processeurs des "embeded FPGA ou eFPGA.
C'est la solution retenu par l'EPI ( European Processor Initiative) qui vise à développer un processeur européen pour les futurs supercalculateurs mais aussi pour le marché automobile et serveurs.
Un eFPGA est un circuit logique reconfigurable intégré au processeur ce qui peut être reconfiguré à la voler pour exécuter en hardcore un algorithme spécifique ce qui peut multiplier par 100 la vitesse exécution par rapport à un processeur généraliste. Il est donc possible d’adapter les jeux d’instruction hardware en fonction du logiciel qui tourne. Et d’implémenter de nouvelles fonctions matérielles aux processeur (nouveaux codex video, nouveaux filtres photoshop, nouveaux algorithme crypto et sec etc…)
Intel et AMD ont respectivement racheté Altera et Xilinx deux poids lourd des FPGA. C’est certainement pour eux aussi une voix pour améliorer le rendement de leurs processeurs.

Pages

CONNEXION UTILISATEUR