Le DTK ARM de Microsoft est une Surface Pro 9 sans écran

Pierre Dandumont |

Environ cinq ans après le lancement des premiers PC portables sous Windows 10 « ARM », Microsoft a annoncé récemment son premier kit de développement, une machine connue précédemment sous le nom de code Volterra. Vendu 700 €, ce PC aux allures de Mac mini reprend en fait en partie la philosophie du kit de développement Apple de 2020, le DTK. En effet, en interne, Microsoft a littéralement réutilisé les composants de la Surface Pro 91.

La vidéo de Jeff Geerling, un vidéaste capable de prouesses inattendues dans ses essais de cartes Raspberry Pi, montre l'intérieur du kit de Microsoft, avant de faire quelques tests. La partie la plus intéressante vient de la carte mère : il s'agit de celle de la Surface Pro 9, avec 32 Go de RAM et un SSD de 512 Go. Ce dernier est amovible et il semble possible de le remplacer par n'importe quel modèle NVMe M.2, même si celui d'origine est très compact… comme dans les tablettes.

On peut voir que Microsoft a vraiment fait le service minimum sur certains composants : certains connecteurs sont présents mais inutilisés, probablement ceux qui gèrent l'écran de la tablette et la connectivité 5G. Dans les petites différences, on peut noter l'adjonction d'un adaptateur USB vers Ethernet en interne et — surtout — un ventilateur qui va permettre d'évacuer la chaleur émise par la puce. La Surface Pro 9 se passe de ce dernier, mais la tablette peut employer une partie de la coque comme dissipateur passif, alors que le boîtier du kit de développement est en plastique.

L'intérieur est relativement brut de décoffrage. On peut voir un SSD dans le coin supérieur droit de l'image de gauche et le ventilateur, assez imposant.

Au niveau des performances, le système sur puce Snapdragon 8cx Gen 3 (appelé Microsoft SQ3 dans la Surface Pro 3, mais il s'agit de la même puce) demeure assez loin de l'Apple M1. Qualcomm utilise une architecture 4+4, en combinant quatre cœurs rapides dérivés du Cortex X1 et quatre cœurs dérivés du Cortex A78, qui sont rapides, mais un peu moins. Le système se passe des variantes basse consommation classiques.

Malgré cette configuration musclée en théorie, la puce ne rivalise pas du tout avec l'Apple M1, et encore moins avec l'Apple M2. Point amusant, s'il n'est pas possible d'installer une distribution GNU/Linux directement, les performances dans une machine virtuelle sont plus élevées que sous Windows 11. De même, l'installation de Rosetta 2 sous GNU/Linux pour émuler le code x86 donne de meilleurs résultats que la solution de Microsoft.

Les performances brutes restent assez faibles sous Windows, et Rosetta 2, porté sous GNU/Linux, est plus rapide que l'émulation de Microsoft.

Dans tous les cas, il est étonnant de voir Microsoft suivre la voie du DTK d'Apple (qui, rappelons-le, intégrait un A12Z issu des iPad Pro) avec autant de retard. Peut-être que Microsoft se rend enfin compte que les développeurs d'applications n'ont pas forcément envie d'acheter une Surface Pro (assez onéreuse) et qu'une tablette tactile n'est pas nécessairement le matériel le plus adapté pour ça. Pour les personnes intéressées, Microsoft vend son kit de développement pour 699 €, et il ne devra pas repartir après quelques mois, lui.

L'avenir de ce pseudo Mac mini reste assez sombre.

Reste à voir si les développeurs suivront, car Microsoft n'est pas du tout dans la même position qu'Apple. Le DTK a été proposé en 2020 plusieurs mois avant le lancement des premiers Mac M1, avec une attente importante liée au fait qu'Apple abandonnait le x86.

Chez Microsoft, il n'y a pas de transition directe vers ARM, mais uniquement quelques PC portables dont personne ne veut en pratique, ce qui n'incite évidemment pas les développeurs à porter leurs logiciels pour la nouvelle architecture. Qui plus est, cinq ans après les premiers PC, certains outils fonctionnent encore uniquement en x86, avec une émulation franchement lente… sur une plateforme qui l'est déjà au départ.


  1. Dans une logique très Microsoftienne, la Surface Pro X a été suivie de la Surface Pro 9. Ne cherchez pas à comprendre.  ↩︎

avatar R-APPLE-R | 

Aller encore un essai ou deux ce sera bon 😈

avatar Espcustom | 

Apple a de la marge.

avatar Artefact3000 | 

Quand on sait que Windows 11 ARM roule mieux en émulation sur un Mac et Parallels Desktop, pourquoi les développeurs devraient s’encombrer de cette boîte de chez Microsoft?

La vision d’un développeur sur Volterra : https://youtu.be/SRvynGd6YzI

avatar amonbophis | 

@Artefact3000

Si je ne me trompe pas, Windows ARM via parallels c’est de la virtualisation et pas de l’émulation, puisque Windows ARM tourne nativement sur une puce ARM (les instructions x86 sont par contre emulées par windows ARM)

avatar Artefact3000 | 

@amonbophis

Fort possible que je mélange les fleurs du tapis. ☺️

avatar amonbophis | 

J’ai dû louper une étape: Apple a porté Rosetta 2 sous Linux, ou c’est l’œuvre de bienfaiteurs, où on ne parle pas du même rosetta2 que sous macOS?

avatar BeePotato | 

@ amonbophis : « J’ai dû louper une étape: Apple a porté Rosetta 2 sous Linux, ou c’est l’œuvre de bienfaiteurs, où on ne parle pas du même rosetta2 que sous macOS? »

C’est Apple qui l’a fait. Ça permet aux machines virtuelles Linux Arm tournant sur Ventura de pouvoir faire tourner des exécutables Linux Intel.
C’est prévu pour être utilisé uniquement dans le cadre de machines virtuelles tournant sur MacOS via le framework d’Apple dédié à la virtualisation, mais il est apparemment assez facile de contourner la procédure de vérification et donc d’utiliser Rosetta sur un Linux sur une autre machine à CPU Arm (sans garantie d’un fonctionnement sans bug).

avatar rolmeyer (non vérifié) | 

Le SSD est celui qu’on trouve dans toutes les Surfaces et dans toutes les Surfaces il est amovible sauf la Go. C’est du 2230. On le trouve aussi dans le Nano Tuff de CallDigit.
Les PC Arm, personne n’en veut car ils sont lents et l’autonomie de ouf n’est pas là, on gagne 30 % au mieux par rapport à un laptop Intel.
Inutile que MS se précipite vu que le hardware ( essentiellement le processeur ) n’est pas là.

avatar Ghaleon111 | 

@rolmeyer

Sur le dernier Lenovo arm le gain d’autonomie est beaucoup plus que 30%, je dirai au moins 60%

avatar rolmeyer (non vérifié) | 

@Ghaleon111

Mouais tous les testeurs ne trouvent pas ces chiffres. Thurott en est loin…et Notebookcheck n’avait pas trouvé de bons résultats avec la Surface Pro X.
Les chiffres officiels ( déjà optimistes) de MS c’est 15 h la pro 9 intel et 19 h (🤔) pour la version ARM. On est pas dans les 60 % de plus.

avatar Dimemas | 

c'est peut-être ça le souci, c'est qu'ils étaient trop optimiste sur intel ^^

avatar rolmeyer (non vérifié) | 

@Dimemas

Ils sont optimistes sur tout….même avec l’Apple Bashing. J’ai vu un grah dans laptop mag je crois où un pc sous arm tapait 15 h de batterie et juste en dessous le macbook air avec 14 h….mais oui.
C’est clairement mieux les pc sous ARM niveau autonomie mais on voit que les vrais testeurs sont déçu car ils s’attendaient au même saut que lors du passage du mac à ARM..
Difficile de savoir si c’est Windows ou la puce Qualcomm ou les deux qui sont en cause.

avatar Dimemas | 

Avec tout au minimum surtout et sur secteur ahah

avatar jonson | 

Comment ça?? Microsoft a déjà sorti un Windows sous arm ??

avatar Sillage | 

@jonson

Ça fait longtemps en effet.

avatar Dimemas | 

rappelez nous les résultats du DTK initial ? ;)

avatar Sillage | 

« On peut voir que Microsoft a vraiment fait le service minimum sur certains composants : certains connecteurs sont présents mais inutilisés, probablement ceux qui gèrent l'écran de la tablette et la connectivité 5G. »

Je trouve cela même très intelligent. Pourquoi réinventer la roue lors que la carte-mère est là. Pourquoi une nouvelle chaîne de prod alors qu’il est si facile d’utiliser ce qui est déjà existant?

Je trouve que c’est malin, mieux pour l’environnement aussi, car plus flexible au niveau de la quantité à produire.

Avoir fait une carte-mère dédiée, ça aurait stupide à mon sens. Mieux vaut perdre quelques petits composants insignifiants.

avatar Dimemas | 

@sillage :
c'est ça.
Et sans compter sur le fait que le DTK d'apple était exactement pareil, c'était des composants d'iPad pro dans un Mac mini.
Beaucoup en avait parlé à l'époque.

C'est fou comment la rédac est prise d'amnésie et de mauvaise foi parfois

avatar Pierre Dandumont | 
Premièrement, c'est indiqué, deuxièmement ce n'est pas réellement le cas. Le DTK d'Apple, c'était des composants d'iPad Pro mais une carte mère pensée pour lui. On va pas reprocher d'utiliser des composants proches. Et deuxièmement, le DTK d'Apple était une machine de transition, pas destinée à la vente (c'était plus de la location) et qui a été abandonnée très rapidement. Ici, c'est un produit fini, vendu, et c'est un peu dommage de perdre des choses comme la 5G (ne serait-ce que pour tester).
avatar Sillage | 

@Pierre Dandumont

Il as de mauvaise critique sur le fond, mais juste un point de vue différent.

« Le DTK d'Apple, c'était des composants d'iPad Pro mais une carte mère pensée pour lui. On va pas reprocher d'utiliser des composants proches. »
Ceci signifie un développement dédié et un assemblage spécifique. Malgré la réutilisation de composants d’iPad pro.

« Et deuxièmement, le DTK d'Apple était une machine de transition, pas destinée à la vente (c'était plus de la location) et qui a été abandonnée très rapidement. »
De ce fait, le développement et l’assemblage spécifique a encore moins de sens.

« Ici, c'est un produit fini, vendu, et c'est un peu dommage de perdre des choses comme la 5G (ne serait-ce que pour tester). »
Je vois justement plus de bénéfices pour un produit destiné à la vente, pour lequel ce sera un marché de niche, de ne pas développer et faire un ligne d’assemblage dédiée. Premièrement coût plus abordable pour le consommateur, deuxièmement c’est mieux pour l’environnement car on ne fait pas une machine dédiée à l’assemblage en quantité pour un un marché de niche.

Qu’en pensez-vous ?

Le manque de 5G est en effet discutable. Reste à voir si une bidouille est possible puisque tous les connecteurs sont présents. Le firmware de la carte mère peut être un soucis cela dit.

avatar Dimemas | 

@ pierre : c'est totalement le cas et tu le sais. ;)
Un iPad ou une surface, c'est un peu le même public donc le parallèle est facile.

Je te mets la description du kit pour te l'illustrer :
"Regroupez tout votre processus de développement d’applications en un seul appareil compact avec Le kit de développement (SDK) Windows 2023. Il a été conçu pour aider les développeurs à créer facilement et efficacement des applications Windows pour ARM."

En clair exactement la même chose que lors de la VENTE du DTK, ce n'était pas du tout de la location et d'ailleurs Apple avait proposé une reprise de l'appareil à prix dérisoire (200$ au lieu des 500$ investi) ce qui avait fait réagi ceux qui ont participé à l'effort (si tu appelles ça de la location)

qui te dit qu'ils ne feront pas la même chose ?

avatar Pierre Dandumont | 
Le DTK, c'était clairement du prête "payant" (j'en ai eu un). C'était clair dès le départ : Apple le reprenait. Ils ont filé ensuite des sous pour faire passer la pilule (moins en Europe d'ailleurs). Et c'était aussi une machine jetable, d'ailleurs : c'était pas hyper fiable et le support a été court. L'appareil de Microsoft, c'est un achat, on peut espérer un support dans le temps (bon, ça, j'en sais rien) et Microsoft va pas le reprendre.
avatar lmouillart | 

Même réflexion. Aussi sur le fait qu'il ne soit pas très rapide et n'explose pas tout, c'est avant tout une machine pour tester. Si la machine de dev est bien plus puissante que le parc cible c'est un souci : soit il faut la ralentir, soit une machine qui ressemble beaucoup à la cible.
Pour ce qui est de la construction du logiciel, les cross compilateurs sur des machines plus puissantes sont préférables.
La machine et la cible : Windows ARM ne m’intéresse pas, mais ça semble être une bonne idée et un produit plutôt bien placé.
Ceci étant comme dit dans les commentaires d'autres sujets, je ne crois pas une seconde au succès de Windows ARM et pense qu'ils devraient plutôt mettre le turbo et proposer le même genre de produit pour RISC-V

avatar yasuo87 | 

@lmouillart

Une machine sous RISC V ne changera pas le problème de logitèque incompatible (ce qui est l’un des 2 gros problèmes de windows ARM) pour le 2ème rien ne dit que Qualcomm (par ex) soit capable de sortir une puce puissante sous cette architecture (2ème problème de windows ARM)

avatar lmouillart | 

Exact, mais quand on est trop en retard pour monter dans le train, mieux vaut prendre celui d'après, plutôt que d'essayer de courir de longs kilomètres pour essayer vainement de le rattraper.

Actuellement sur RISC-V Microsoft et Apple proposent exactement le même nombre d'applications : 0.
On voit avec les errements d'ARM que pour du très long terme la solution ARM n'est pas fiable. Microsoft teste et utilise avec succès du libre. Il n'y a donc aucune raison en dehors du fait qu'il reste tout à faire côté RISC-V que MS ne saute pas dedans. La situation est un tout petit peu meilleure sur ARM, mais le gros du travail reste devant.

avatar yasuo87 | 

@lmouillart

Il faudrait trouver un constructeur capable de faire une puce puissante sous RISC V alors. Je ne comprends pas comment Qualcomm peut se rater à ce point sur les puces ARM puissantes

avatar lmouillart | 

Fut un temps Qualcomm s'est posé la question du retournement du marché du smartphone, et s'était aucun peu désengagé des puces puissantes pour tablettes, smartphone. Afin de plutôt se concentrer sur la 5g, ses évolutions et surtout l'IOT.
Les investissements demandés étaient trop importants et avec les raz de marée de la RPC des Mediatek et Kirin de Huawei. Trump et l'administration américaine ont décidé de tuer ce raz de marée, notamment en tapant très fort sur Huawei. Cela à radicalement changé la donne sur le marché des SoC où Qualcomm y revois un secteur intéressant pour sa croissance et ses marges. Ils remettent donc les bouchés doubles afin de rattraper le retard accumulé.

avatar Pierre Dandumont | 
Le problème de Qualcomm dans les CPU ARM, c'est la vision de départ et les contraintes. Qualcomm a fait ses propres CPU à une époque ou ARM proposait rien de comparable, mais en visant un marché précis : la mobilité, avec comme avantage l'intégration du modem. Ils n'ont pas forcément anticipé que le marché allait vers des smartphones qui remplaceraient les ordinateurs au sens classique du terme, et c'était quand même pensé pour offrir des performances correctes... sans plus. Pas pour concurrencer le x86. Après, Qualcomm a aussi une contrainte forte : dans une bonne partie des SoC, y a l'intégration du modem qui prend de la place, et c'est un des avantages de la marque. Mais ça réduit un peu l'espace disponible pour autre chose, avec en plus le fait que Qualcomm doit vendre ses puces, donc peut pas faire de grosses puces dans l'absolu.
avatar yasuo87 | 

@Pierre Dandumont

@lmouillart

Ça marche merci pour vos retours

avatar Pierre Dandumont | 
RISC-V, c'est compliqué. L'avantage évident, c'est que c'est ouvert, mais en pratique le jeu d'instructions a ses limites et actuellement, y a rien de réellement performant. Du coup, on tourne en rond assez vite : y a pas d'applications parce que c'est pas performant, mais personne se décide à se lancer dans le développement d'un CPU performant parce qu'il y a pas de marché. Mais en l'état, je vois mal Microsoft se tourner vers RISC-V alors qu'ils essayent (et réussissent pas) de pousser ARM.
avatar lmouillart | 

C'est certain, mais on est dans le même cadre que le passage du x86, à ARM.
En Perf/W et surface occupée on est actuellement au-dessus avec du RISC-V vs de l'ARM.
L'environnement RISC-V évolue beaucoup plus vite que l'environnement ARM.
Les softs existent déjà en masse du côté des GNU/Linux. Même s'il n'existe pas de GPU libre performant, actuellement on peut adjoindre un GPU existant.

Certaines machines nécessitant plus de puissance d'un simple contrôleur https://www.cnx-software.com/2022/07/02/roma-linux-laptop-to-feature-quad-core-risc-v-soc-support-web3-nft-cryptocurrencies-etc/ commencent à arriver.

Les SOC commencent à pouvoir aller titiller les ARM https://www.techinsights.com/blog/andes-ax65-cpu-targets-data-center

Les p470 p670 ont de bonnes performances : https://liliputing.com/sifive-launches-p470-and-p670-risc-v-processors-with-vector-instruction-support/

Je pense que cela va arriver très vite et que d'ici 5-10 ans le paysage des SOC va être radicalement différent.

avatar Dimemas | 

en effet, c'est pas dit que ARM soit encore l'architecture miracle dans les années qui suivent, surtout quand on voit le résultat actuel.

je suis très circonspect pour l'avenir des puces ARM comme les M1 et M2

avatar Pierre Dandumont | 
L'environnement RISC-V évolue vite comme l'environnement ARM a vite évolué quand on a eu besoin de puissance avec la sortie des smartphones puissants (vers 2010). Quand on part de très bas, c'est beaucoup plus "simple" de monter en puissance rapidement, parce que les méthodes qui marchent sont connues. C'était le cas des ARM : le must vers 2007/2008 était le Cortex A8 qui était assez simple, et les évolutions ont vraiment gagné en perfs avec le temps... parce que c'était simple. On gagne beaucoup moins actuellement parce qu'il y a moins de marge (comme en x86 et chez tout le monde). Et sur le coup, les RISC-V partent d'assez loin actuellement : quand t'as une puce de 2023 qui titille un Cortex A72 en étant plus efficace sur la consommation, ce n'est pas non plus extraordinaire : ça reste un coeur lent pour 2022. Le coeur basse conso d'Apple fait par exemple nettement mieux en perfs *et* en consommation. Par contre, c'est intéressant dans le cas des serveurs cloud, vu que la puce est petite : tu peux mettre pleins de coeurs pour des usages qui demandent peu de puissance, c'est un cas très intéressant. Pour un usage personnel moderne, on est encore loin d'avoir quelque chose d'assez performant pour remplacer les ARM.

CONNEXION UTILISATEUR