Microsoft planche sur des puces maison optimisées pour l'IA

Félix Cattafesta |

Microsoft a plus d'un tour dans son sac pour rester dans le peloton de tête de la course à l'IA. Alors que l'entreprise a déjà investi plusieurs milliards dans OpenAI, The Information affirme aujourd'hui qu'elle travaillerait sur ses propres puces spécialisées sur l'IA et destinées à ses serveurs. Lancé en 2019, le projet serait déjà bien avancé : certains employés de Microsoft auraient même eu l'occasion de l'essayer pour voir ce qu'elle donnait avec de gros modèles de langage, comme le tout récent GPT-4.

Infrastructure de Microsoft. Image : Microsoft.

L'entraînement et l'utilisation de modèles de langage demandent énormément de puissance. Le mois dernier, Microsoft expliquait comment elle avait mis sur pied une infrastructure massive reposant sur des milliers de cartes graphiques NVIDIA optimisées pour l'IA. L'entreprise a annoncé intégrer des puces H100, spécialisées pour ce type de tâche et facturée plus de 30 000 € unité.

L

L'essor des IA pourrait créer une nouvelle pénurie de GPU

Il n'est donc pas très surprenant d'apprendre que Microsoft essaye de moins dépendre de NVIDIA et d'économiser sur le long terme, même si elle ne compte pas complètement se débarrasser de son collaborateur. Les deux entreprises disposent de plusieurs partenariats concernant le cloud et l'IA. La firme de Redmond aurait cependant mis un coup de fouet à son projet (surnommé « Athena » en interne) et aurait déjà planifié une feuille de route avec plusieurs évolutions. La première version devrait être gravée en 5 nm par TSMC.

Difficile de savoir si ces puces seront accessibles aux clients Azure ou si elles resteront uniquement utilisées en interne. Microsoft développerait ses puces maison depuis des années : Bloomberg affirmait en 2020 que l'entreprise préparait des modèles ARM pour ses centres de données. D'autres géants de la tech comme Amazon, Google ou Meta planchent eux-aussi sur des puces spécialisées dans l'IA. En attendant les annonces, NVIDIA reste le numéro 1 du secteur.

avatar bunam | 

A quand le SOC S1 coté Apple ? ;)
Pour elle-même et/ou les devs de l’déco-système Apple.

Edit : merde il faut une autre lettre, pour les serveurs X1 ? pour rappeler l'Xserve ?

avatar Captain Bumper | 
avatar bunam | 

@Captain Bumper

ouai

avatar cecile_aelita | 

@bunam

C’est pas les puces de l’Apple Watch les puces Sx ?🙂

avatar bunam | 

@cecile_aelita

ouai

avatar marc_os | 

@ bunam

> A quand le SOC S1 coté Apple ? ;)
> Pour elle-même et/ou les devs de l’déco-système Apple.

Le Neural Engine des M1, ça ne vous convient pas ?

avatar bunam | 

Une puce serveur ce n'est pas pareil qu'une puce poste de travail, elle doit pouvoir faire beaucoup plus de lourdes tâches en // et en continu, sans thermal throttling (pénalité de puissance due à la montée de la chaleur sur la puce)
Bien sûr qu'il faut qu'elle ait des unités neural M1
Beaucoup de RAM
Possibilité d'isolation pour avoir plusieurs clients en toute sécurité
Aussi je pense qu'Apple pourrait économiser de l'énergie.

Et je m'attends à un "one more thing" : you know what ? iCloud runs now 40% on X1 ....
Ici je rêve c'est de plus en plus dur de cacher une production de masse, on va le savoir rapidement, avant même qu'on ait la surprise.

avatar Yves SG | 

Curieux de voir si Microsoft parviendra à révolutionner le secteur comme Apple l’a fait. Ça serait bon pour tout le monde 😊

avatar huexley | 

Ce serait pas mal qu'Apple si colle, car pour le moment par rapport a Nvidia c'est vraiment très mauvais…

avatar marc_os | 

@ huexley

> Ce serait pas mal qu'Apple si colle

Et le Neural Engine des M1, c'est quoi selon vous ? Il ne vous convient pas ?

avatar occam | 

@marc_os

Non.

avatar DrStax | 

@huexley

Par rapport à Nvidia sur quoi ? Car pour le moment Apple n’est pas concurrent de Nvidia dans ce domaine la et je ne suis pas sûr qu’ils se lanceront sur ce créneaux un jour. Je parle bien des data center « Neuronal » , pas des machines privée qui se contente de NPU type neural engine par exemple.

avatar oomu | 

halala, y a un communiquant du "neural engine" qui doit pleurer quelque part...

avatar cecile_aelita | 

@oomu

Oui je pleure 😭😭

avatar Polyme | 

J’entends encore les commentaires légèrement condescendants lorsque je me demandais pourquoi on ne faisait pas des puces optimisées AI au lieu de multiplier les GPU… 😡

CONNEXION UTILISATEUR