Pourquoi n'existe-t-il pas encore de Boot Camp pour Apple Silicon ?

Pierre Dandumont |

Nous sommes en 2023, les Mac Apple Silicon existent depuis plus de deux ans, et vous ne trouverez pas de Boot Camp pour installer Windows sur les derniers Mac. Ça peut sembler étonnant : lors de l'arrivée des puces x86 dans les Mac, Apple avait proposé son outil quelques mois à peine après la sortie des premiers Mac Intel, dès avril 2006 (en bêta). Mais la donne a changé.

L'icône de Boot Camp.

Pourquoi Apple a développé Boot Camp en 2006 ?

Commençons par la base : Boot Camp est un utilitaire réalisé par Apple pour permettre d'installer Windows en natif sur un Mac. En 2006, l'existence de Boot Camp était logique : Mac OS X était un système de niche (les parts de marché étaient plus faibles qu'actuellement) et l'écosystème Apple ressemblait à un rêve. Il n'y avait pas d'iPhone ou d'iPad et beaucoup d'applications n'existaient que pour Windows.

À l'époque, Boot Camp était presque un mouvement attendu : les premiers Mac Intel ressemblaient vraiment énormément à des PC, avec du matériel tout à fait standard. La virtualisation demeurait encore rare et la seule solution réellement viable à l'époque pour profiter de Windows sur un Mac consistait à installer l'OS en natif, avec un « double boot ».

Du côté d'Apple, la tâche n'était pas très compliquée : les pilotes pour la majorité des composants existaient, le CPU et le GPU étaient standards, etc. Une des seules choses qu'Apple a dû développer, c'est un BIOS virtuel : Windows XP ne gérait que cet antique firmware et l'EFI était un doux rêve dans les PC.

avatar eX0 | 

Ce n’est pas une perte.

avatar frankm | 

@eX0

Ça c’est sûr

avatar fousfous | 

Sûrement l'une des raisons pour laquelle je ne renouvellerai pas mon mac. Un Mac surpuissant juste pour safari et les applis de base c'est dommage.

avatar lepoulpebaleine | 

@fousfous

Pour les développeurs Web, pour les Data Scientist, pour les graphistes, pour les monteurs vidéo et réalisateurs d’effets spéciaux, pour les producteurs de musique (assistée par ordinateur), etc., le Mac est une plateforme parfaite.

Pour les gamers, en effet il vaut mieux rester sur x86/Windows. Mais les gamers n’ont jamais été le cœur de cible d’Apple.

avatar yod75 | 

Office 365 a changé la donne pour la bureautique.
A la maison je n'ouvre presque plus jamais le portable du bureau, Teams vous le travail en équipe, office en natif et onedrive pour mes fichiers pro et le tour est joué. Teams est une plaie, mais pas plus que sur pc ; étonnamment je trouve qu'il ralenti moins le mac mais c'est peut être une simple illusion

avatar fousfous | 

@yod75

Il y a des besoins ou le Mac est pour l'instant nécessaire, notamment pour la synchronisation de l'iPhone et de l'iPad, la sauvegarde des photos, et bien évidement les logiciels qui n'existent pas ailleurs.
Pour moi la solution idéal serait un double boot iOS / macOS sur un grand iPad. Avec un PC a côté pour jouer.

avatar eX0 | 

@fousfous

C’est que tu n’as pas besoin d’un Mac et c’est okay :).

avatar Bigdidou | 

@fousfous

« Un Mac surpuissant juste pour safari et les applis de base c'est dommage. »

???

C’est un environnement tres riche, hors certains logiciels metier, qui sont de toute façon bien souvent déployés sur des serveurs d’application.
Si riche, qu’il est rare que je trouve sous windows tous ces utilitaires si bien faits qui changent ma vie sur mac.
Au delà d’être surpuissant, ce dont je me fiche, les macs d’aujourd’hui que. J’ai eu en main sont hyper réactifs.
C’est un aspect essentiel pour beaucoup de métiers, qui n’ont pas forcément besoin de puissance brute, mais pour qui chaque seconde gagnées grace à l’interface pour des taches légères compte.

Après, rien contre repasser à windows, mais ce sera w12, parce que win11, j’ai pas compris la farce qu’on a voulu faire.
Et une version pro de w12, sans les pubs, merci..
J’ai pas digéré le volet de notification et pourquoi microsoft veut m’y imposer « Voici » et congénères sinon rien.
Comment et pourquoi le caniveau nous envahit-il partout et à ce point ?

avatar Saussau083 | 

(et ça n'arrivera sûrement pas, même s'il ne faut jamais dire jamais)

Pourquoi être si pessimiste ? Quand on voit le bien qu'ont fait les puces M1/M2 aux Macs, notamment en entrée de gamme, pourquoi pas tirer parti de ce succès chez les constructeurs PC pour renverser la balance vers ARM au détriment de x86 ? Ça prendrait beaucoup de temps, mais j'espère pour les utilisateurs Windows qu'ils y auront droit

avatar melaure | 

@Saussau083

Je suis tout a fait d’accord, et je ne vois pourquoi pas Intel pour aussi faire le saut, tous le monde peut acheter les licences ARM. Intel pourrait facilement devenir le premier producteur de puces ARM.

avatar Pierre Dandumont | 

Franchement, c'est très optimiste et probablement irréaliste.

Intel a eu une licence ARM pendant longtemps, et leurs puces étaient correctes, mais pas non plus largement devant la concurrence. Actuellement, ils savent faire du x86, mais ils sont assez mauvais pour faire des trucs basse consommation/avec un bon rapport performances/consommation.

Même AMD, qui a sorti de très bonnes ces dernières années, s'est cassé les dents sur du ARM, les projets ont été abandonné.

Je crois pas du tout qu'Intel pourrait casser le marché en arrivant dans le domaine, c'est pas du tout leur ADN. D'ailleurs, Intel s'est planté plusieurs fois en essayant d'aller sur des marchés différents : les puces mobiles, c'est un échec, les modems, c'est un échec, les GPU, c'est un semi-échec pour le moment, etc.

avatar fte | 

@Saussau083

"Pourquoi être si pessimiste ?"

Parce que Microsoft n’a pas d’intérêt à le faire, sauf si Apple les paie.

Parce que Apple n’a pas non plus d’intérêt à le faire.

Le seul espoir est la communauté open source, qui n’a pas besoin d’y avoir le moindre intérêt pour faire un truc, juste une énorme dose d’ennui à combler.

avatar Saussau083 | 

@fte

Je mentionnais la fin de l’article qui appuie le fait que les puces ARM ne renverseront sans doute jamais les puces x86 dans le marché des PC Windows.

avatar fte | 

@Saussau083

"Je mentionnais la fin de l’article qui appuie le fait que les puces ARM ne renverseront sans doute jamais les puces x86 dans le marché des PC Windows."

Oh. Et quel intérêt cela aurait-il ?

Adopter un jeu d’instructions libre de licence aurait peut-être du sens, mais une ISA propriétaire et soumise à license ?

Adopter une architecture considérablement moins puissante que de que proposent Intel et AMD même en entrée de gamme ? Pour des appareils ultra-portables cela aurait sans doute un sens du fait de l’avantage d’autonomie des chips arm, mais pour quel volume de ventes véritablement ?

Adopter une architecture incompatible avec l’écosystème x86 de périphériques et chips (et leurs drivers), quand tant de choses existent dans cet écosystème avec un niveau d’interconnectabilité absolument fantastique et une rétro compatibilité au moins aussi fantastique ?

Je ne dis pas que c’est impossible et que ça n’arrivera jamais. J’échoue juste totalement à voir un quelconque intérêt d’échelle, uniquement des raisons de niche spécifiques et discutables. En ce qui me concerne ce n’est pas une question d’être optimiste ou pessimiste, il faudrait pour cela que le challenger soit meilleur que le champion, c’est une question d’intérêts et de bénéfices et arm n’en a pas qui soient absolument évidents.

avatar Pierre Dandumont | 

Y a pleins de réponses.

• D'abord, pour le moment, y a pas de puces viables pour cet usage dans le monde PC. Les meilleurs ARM (hors Apple), c'est nettement en retrait des meilleurs x86. Et c'est pas près de changer. • Le marché Windows en général est plutôt adepte de la rétrocompatibilité, avec une latence forte sur les nouveautés, ça aide pas à proposer des versions ARM de softs. • Microsoft fait absolument pas le nécessaire pour que ça matche. Windows ARM a 7 ans en gros, et y a pleins de trucs qui existent même pas.

Plus largement, faudrait vraiment que les fabricants de x86 stagnent complètement et que les fabricants de puces ARM explosent pour que ça commence à devenir intéressant.

Accessoirement, Apple a réussi à imposer des trucs parce que c'est un marché relativement fermé, avec une rétrocompatibilité faible et un choix très faible de matériel. En l'état, personne accepterait par exemple dans le monde PC de se passer de GPU dédié, et c'est ce qu'Apple a fait. Les M1/M2, c'est compétitif, c'est très bien sur certains domaines, mais y a pleins de domaines ou les x86 actuels sont mieux.

avatar mauy | 

@Pierre Dandumont

Il ne faut pas oublier le marché professionnel et en particulier les besoins des « hyperscaler » qui ont besoin de baisser leurs factures de conso électrique. AWS et Azure en particulier poussent dans ce sens.

Il y a des puces comme Ampere qui répondent à ce besoin d’un meilleur ratio puissance/consommation d’autant qu’il est bien plus facile de faire tourner une infra serveur sur du ARM vu qu’il y a les bases logicielles que le PC sur le bureau. Cela d’autant que comme décrit dans l’article, la plupart des besoins professionnels modernes ne sont pas liés entre l’infra technique et l’interface utilisateur qui passent maintenant par un navigateur. Y compris le développement logiciel qui a une certaine tendance à ce déporter vers le « cloud ».

avatar Saussau083 | 

@Pierre Dandumont

Merci pour la réponse détaillée et pour l’article ! 🙌🏻

avatar fif | 

« Du côté de Microsoft, c'est logique : la société préfère évidemment vendre des PC »
Ah bon ?

avatar Pierre Dandumont | 
Ben Windows en OEM, c'est quand même un gros marché...
avatar berrald | 

“Boot Camp sur un iMac de 2006 (allégorie).”
Je me suis marré tout seul devant mon ordi !

Excellent article, merci !

avatar fte | 

Je pourrais dire que je n’y ai rien perdu, que c’est Apple qui m’a perdu. Mais ce n’est pas cette absence qui a tué le Mac pour moi, il était mort des années auparavant déjà. Aujourd’hui, je n’ai ni besoin ni envie de Mac, au contraire.

Mes condoléances à ceux qui appréciaient et utilisaient cette fonctionnalité. RIP.

Et je n’ai pas dit jamais. ;)

avatar fabricepsb71 | 

« Et le temps où certains installaient Windows sur un Mac pour jouer tombe peu à peu dans l'oubli. »

Tombé dans l’oubli ???
Certains comme vous dites n’avaient pas le choix.
Avec le temps, la plupart des Mac grand public ont perdu leur carte graphique, conséquence de l’obsession de la finesse chez Jony Ive.
Catalina a été le fossoyeur des quelques jeux 32 bits qui existaient sur Mac.
Pour continuer de jouer sur Mac, il fallait donc rester sur Intel et utiliser une machine haut de gamme. C’est ce que j’ai personnellement fait.

avatar eX0 | 

@fabricepsb71

Il y a toujours au moins une carte graphique.

avatar fte | 

@eX0

"Il y a toujours au moins une carte graphique."

Non. Il y a une carte d’affichage.

Carte graphique au sens de 2020+ implique beaucoup de choses qui n’existent pas dans le monde Apple aujourd’hui.

avatar eX0 | 

@fte

Ce sont des cartes graphiques.

avatar fabricepsb71 | 

@eX0

Non ce sont des puces dédiées aux graphismes 😅

avatar eX0 | 

@fabricepsb71

Ce qui est la définition en effet

avatar fte | 

@eX0

"Ce sont des cartes graphiques."

Déjà, ce n’est pas une carte mais un bout de silicium dédié à des fonctions d’affichage partie au SOC.

Ensuite graphique implique beaucoup de choses inexistantes dans ce que propose Apple, en particulier côté support logiciel.

C’est un circuit d’affichage intégré de classe téléphone mobile.

Rien à voir avec une carte graphique.

avatar eX0 | 

@fte

Qu est ce qui est inexistant?

Et qu est ce qu une carte graphique pour toi?

avatar fte | 

@eX0

"Qu est ce qui est inexistant?"

Un quelconque support logiciel pas totalement propriétaire, pas totalement confidentiel, pas totalement aux performances déplorables.

"Et qu est ce qu une carte graphique pour toi?"

Un calculateur indépendant spécialisé dans le traitement massivement parallèle de données actuellement utilisable pour traiter massivement parallèlement de vraies données. Et pas pour moi. Pour 2020+.

Apple fournit l’équivalent de ce qu’Intel livre dans ses CPUs, pas grand chose de plus, du logiciel en moins. C’est OK pour un iPad je suppose.

avatar eX0 | 

@fte "Un quelconque support logiciel pas totalement propriétaire, pas totalement confidentiel, pas totalement aux performances déplorables."

Les autres constructeurs de cartes graphiques ont tous des APIs propriétaires qui sont confidentiels avec du code ferme par lequel on est oblige de passer par ces dernières pour avoir une quelconque performance. NVIDIA sont les rois dans le domaine, ce qui leur a valu d ailleurs le fameux "f** you" de Linus Torwalds et surement l une des raisons pour laquelle Apple a arrêté de travaille avec eux.
https://www.youtube.com/watch?v=i2lhwb_OckQ
Quant aux performances les derniers M2 pro ont une puissance équivalente à une nvidia 1660/3050, le genre de cartes graphiques dédiées dont Apple aurait équipé ses portables haut de gammes. La perte est nulle... Ce qui compte c est le support des developpeurs pour avoir des logiciels qui tirent parti de l API Metal qui est utilise quelque soit la carte graphique en dessous. Mais le problème n existe pas qu avec Apple il existe aussi avec AMD, vu que c est NVIDIA qui contrôle le marche.

"Un calculateur indépendant spécialisé dans le traitement massivement parallèle de données actuellement utilisable pour traiter massivement parallèlement de vraies données."
vraies données c est quoi?

avatar fte | 

@eX0

"Les autres constructeurs de cartes graphiques"

Il y a Nvidia et AMD basiquement. Les deux agissent très différemment.

Mais les deux fournissent des outils et contribuent aux projets majeurs (et mineurs), garantissent leurs travaux dans la durée, les supportent absolument.

On peut compter dessus, sans risque d’un abandon ou changement incompatible intempestifs.

"NVIDIA sont les rois dans le domaine, ce qui leur a valu d ailleurs le fameux "f** you" de Linus Torwalds"

Il y a du vrai dans de fuck you de Torwalds, mais Torwalds est un idéaliste absolutiste, il convient de remettre ce fuck you dans son contexte et comprendre sa portée. Il ne critique pas l’ingénierie mais le marketing.

"et surement l une des raisons pour laquelle Apple a arrêté de travaille avec eux."

Je n’ai aucun doute que l’ingérence du marketing de Nvidia dans le marketing d’Apple est un facteur, en effet, et je ne doute pas que les conditions financières exigées par Nvidia est un encore plus grand facteur. AMD était très certainement beaucoup plus arrangeant.

Rien à voir avec l’ingénierie qui n’intéresse pas vraiment Apple dans ce secteur.

"Quant aux performances les derniers M2 pro"

La performance est très éloignée d’une carte graphique. La performance est semblable à des circuits embarqués.

La performance ne sert à rien si elle n’est pas exploitable.

"Ce qui compte c est le support des developpeurs pour avoir des logiciels qui tirent parti de l API Metal qui est utilise quelque soit la carte graphique en dessous."

C’est vrai. Ça dépend entièrement de la bonne volonté et surtout de l’investissement en temps et d’une considérable prise de risque des développeurs tiers.

C’est la raison pour laquelle les GPU d’Apple sont majoritairement exploités pour des jeux mobiles f2p et à gems, jetables, et pratiquement rien de professionnel et durable. Ce serait folie d’accorder la moindre confiance à Apple dans ce secteur.

"Mais le problème n existe pas qu avec Apple il existe aussi avec AMD, vu que c est NVIDIA qui contrôle le marche."

C’est faux. La majorité des solutions professionnelles supportent les solutions AMD par la très vaste palette de librairies et autres outillages logiciels, rares sont les spécificités liées à Nvidia qui n’aient pas d’alternative supportées et fiables dans la durée.

"vraies données c est quoi?"

Des trucs productifs, pas des jeux mobiles f2p avec des gems et lootboxes.

avatar eX0 | 

@fte

"Il y a du vrai dans de fuck you de Torwalds, mais Torwalds est un idéaliste absolutiste, il convient de remettre ce fuck you dans son contexte et comprendre sa portée. Il ne critique pas l’ingénierie mais le marketing."

Linus n est pas un idéaliste absolutiste, ça se voit que tu connais mal le personnage. Et tu ne peux pas te plaindre de cote ferme de la solution graphique d Apple, dire que Linus est un absolutiste et encense NVIDIA dans la même phrase alors que NVIDIA est connu pour avoir une approche autrement plus fermée et propriétaire qu Apple sur ses technologies, et c est d ailleurs le reproche fait par Linus dans le contexte de cet interview. À l époque, et c est encore le cas, NVIDIA avait verrouillé ses cartes graphiques pour qu en l absence de leur driver propriétaire, la carte graphique soit inutilisable.
Si le cote propriétaire et de limitations de la carte graphique en l absence de l utilisation des outils d NVIDIA est du marketing, c est aussi le cas pour Apple. NVIDIA ne supporte que ses APIs sur lesquelles viennent se connecter les différentes applications.
AMD est plus ouvert en raison de sa place ridicule, mais bon courage pour avoir plus que juste du gaming dessus. Les seuls à exploiter du AMD pour autre chose que du GAMING c était Apple avec METAL par dessus pour ses Mac PRO et Macbook Pro, ou des solutions clouds/datacenter qui demandaient d avoir AMD dans la boucle comme ce qu avait fait Google à une époque.
Tout le cote productivité est absent et c est la raison pour laquelle NVIDIA domine le marche du datacenter, intelligence artificielle, encodage/decodage video etc.
Si tu prends n importe quel outil d intelligence artificielle c est pas supporte, inutilisable sur AMD ou avec des performances ridicules comparées à leurs équivalents NVIDIA.

"C’est faux. La majorité des solutions professionnelles supportent les solutions AMD par la très vaste palette de librairies et autres outillages logiciels, rares sont les spécificités liées à Nvidia qui n’aient pas d’alternative supportées et fiables dans la durée."

Quand je regarde les workstations et datacenter, c est que du NVIDIA et la majorité des benchmarks montrent que c est plus rentable...

avatar fte | 

@eX0

Je ne suis pas certain que nous parlions encore de la même chose. Mais qu’importe.

Ton point était qu’Apple proposait des cartes graphiques. Je disais que non, absolument pas, de très loin pas.

Tu rebondis apparemment, si je comprends bien, en avançant qu’AMD non plus ne propose pas vraiment de cartes graphiques, les seuls tenant la place étant Nvidia.

Okay. Si tu veux. Je ne suis pas d’accord, mais ce n’est pas le sujet ni le point.

Tu as donc éliminé Apple de l’équation. C’était mon point. Nous sommes d’accord. Formidable, je suppose.

p.s. j’ai déjà raconté mon histoire de switch ici, je n’ai aucune intention de recommencer, mais en substance le point de départ était justement pour pouvoir disposer et exploiter des cartes graphiques pour accélérer un travail lourd. C’était il y a 6 ou 7 ans maintenant. Et non ce n’était pas du mining.

avatar eX0 | 

@fte

Pour moi ce sont toutes des cartes graphiques mais avec des APIs et des utilisations différentes.

Si on respecte ta définition, où une carte graphique doit pouvoir servir dans une workstation/datacenter pour faire de « vrais calculs », seul nvidia fait des cartes graphiques.

Mais ça reste aussi réducteur que de dire qu’une voiture ne sert pas juste de faire point A, point B mais doit avoir 6 cylindre en ligne et faire du 0 à 100 en moins de 5 secondes et doit pouvoir transporter 4 personnes en même temps (en gros juste des BMW)

Une carte graphique sert juste à traiter des graphismes que ce soit pour de l’affichage du jeu vidéo ou du traitement vidéo. https://en.m.wikipedia.org/wiki/Graphics_processing_unit

Les fonctionnalités en plus ne sont là que pour le marketing et répondre à des besoins exploitant la puissance disponible embarquée.

avatar Combiche | 

Personnellement j'ai été déçu par le niveau graphique des Macs pour les jeux sous Bootcamp avec le temps. Au final j'ai acheté une "gaming tower" PC uniquement pour les jeux, et je ne le regrette vraiment pas!

avatar Nesus | 

J’utilise UTM et ça fonctionne presque bien. Bon, je fais tourner une app… elle ne demande aucun puissance processeur et aucune carte graphique.

avatar Bigdidou | 

Le problème, c’est qu’en réseau hétérogène, les accès samba, par exemple, c’est encore plus galère qu’avec mon ancien intel que je pouvais lancer en mode pc quand ca devenait trop horrible.

Je sais plus trop quoi faire.
Plaisir de macOS et smb galère, ou l’horreur absolue pour moi du win 11 du pc pro qu’on m’a donné et smb un peu moins galère ?

Et qui a inventé Citrix ?
C’est pour le jour où on rétablira la torture. .

CONNEXION UTILISATEUR