Azure, AWS, ou encore GCP : ces noms sont pour la plupart inconnus du grand public, et pourtant, ils sont la colonne vertébrale de nombre d’apps utilisées tous les jours par des millions de personnes. Si la plupart de ces services sont hébergés sur des serveurs mêlant processeurs Intel ou maison avec des cartes spécialisées créées par Nvidia, Apple a pensé (et pense encore ?) pouvoir tirer son épingle du jeu, grâce à ses propres puces.

C’est The Information qui a mis la main sur le projet, nommé ACDC en interne (pour Apple Chips in Data Centers) : jusqu’à présent, l’usage du cloud par les développeurs se bornait à avoir besoin de capacités de stockage confortables et d’une bande passante plus que large. Mais les besoins changent, et de plus en plus d’apps font appel au cloud pour des calculs en rapport avec l’IA. Et ça tombe bien : si Nvidia vient directement en tête pour ses monstres de puissance dédiés à l’IA, Apple n’est pas en reste, développant ses puces maison depuis 2010, et le Neural Engine intégré à celles-ci depuis 2017.
Dans le domaine, Apple est plutôt bien équipée pour venir croiser le fer avec les meilleurs du domaine : le nerf de la guerre dans les data centers, c’est l’efficience, domaine dans lequel les puces Apple sont loin d’être à la traîne. Au point que certaines start-up spécialisées utilisent des ordinateurs de la pomme pour effectuer des travaux dédiés à l’IA, comme Dragonfruit.ai, qui emploie des Mac mini sur de la reconnaissance d’objets, d’intrusion ou de vols à partir des flux des caméras de surveillance de boutiques et autres entrepôts. Amit Kumar, CEO de l’entreprise, ne cache pas son intérêt pour les SoC d’Apple :
Apple fait du calcul d’IA dans ses SoC depuis plus longtemps que n’importe qui. Quand Nvidia ne pensait encore qu’aux jeux vidéos, Apple était déjà en train de faire des calculs d’intelligence artificielle.
Pourtant, étrangement, Apple loue encore maintenant les serveurs de ses concurrents pour entraîner son IA, notamment chez Amazon et Google, où elle débourse 7 milliards de dollars par an. Pourquoi louer, alors qu’elle pourrait tout faire en interne ? Selon The Information, l’entraînement de l’IA étant la partie la plus gourmande dans la création de celle-ci, Apple n’a pas envie d’investir dans un nombre conséquent de NPU Nvidia pour qu’ils lui restent ensuite sur les bras, d’autant plus si elle compte utiliser sa propre architecture plus tard.
En interne, les développeurs utilisent des serveurs équipés de puces maison pour tester des services comme Photos, Apple Music, et bien entendu Siri, qui a été le premier à tourner sur les serveurs made in Cupertino. La pomme a aussi fait ses preuves avec des charges au nombre élevé de transactions, ses propres serveurs gérant les échanges d’Apple Wallet.
Apple a donc largement les capacités de proposer des services de cloud computing, ne serait-ce que grâce à la puissance de ses derniers processeurs. Cependant, le projet serait mis en péril par le départ de son créateur et défenseur, Michael Abbott. Ce dernier, responsable Cloud Engineering depuis 2018, est parti en 2023 et était l’instigateur de cette idée.
Depuis, plus rien ne transpire sur cette ambition de services de cloud computing. Mais le marché étant en pleine expansion, comme le montrent des services comme Google Cloud qui a rapporté 42,3 milliards de dollars à Alphabet en 2024, il serait dommage pour la pomme de laisser passer une telle possibilité...