Ce dimanche, Mark Gurman annonçait parmi sa liste de fuites dominicales qu’Apple allait utiliser Google Gemini comme moteur pour son prochain Siri. Aujourd’hui, il en rajoute une couche avec des détails supplémentaires, dont le nombre de paramètres du LLM utilisé par la pomme.

Si l’annonce était relativement discrète dans sa newsletter, ne prenant pas la première place du classement laissée à des rumeurs plus matérielles, elle n’en est pas moins intéressante : plutôt que de tout faire en interne, Apple aurait donc jeté l’éponge pour une partie de son chatbot, et décidé d’utiliser le moteur de Gemini à la place.
Un anniversaire très chargé, la bascule à l’OLED et Gemini sous le capot : la semaine Apple
Le passage à Gemini n’est pas le premier test qu’Apple fait avec des moteurs d’intelligence artificielle extérieurs : en plus de celui de Google, la pomme aurait testé le moteur de Claude, ainsi que celui de ChatGPT. Cependant, c’est celui de Google qui aurait fini par avoir la préférence de la pomme, après une période de test intensive.
L’installation de Gemini sous le capot de Siri n’est pas définitive, et doit rester présente tant qu’Apple ne trouve pas son LLM assez compétitif pour gérer tout seul les requêtes de Siri, qui devrait arriver au printemps prochain avec iOS 26.4. Le moteur utilisé par la pomme devrait comprendre 1 200 milliards de paramètres, loin au-dessus des 150 milliards de paramètres de la version cloud d’Apple Intelligence actuellement. Il devrait être en charge des fonctions résumé et planification de Siri, qui aident le chatbot à résumer l’information et décider des tâches à accomplir. D’autres fonctions resteraient la chasse gardée de Siri.
Si Apple confie le moteur à Google, ce n’est pas pour autant que les données client iront vers les serveurs de Mountain View : le moteur Gemini devrait tourner exclusivement sur les serveurs d’Apple, le Private Cloud Compute déjà utilisé par Apple Intelligence. Pour ce faire, Apple aurait déjà alloué les infrastructures techniques nécessaires à l’arrivée du nouveau Siri dans ses data-centers.
Alors que l’utilisation de Gemini comme moteur de Siri devrait être temporaire, il faudra pour s’en passer qu’Apple juge que son LLM est assez compétitif pour venir concurrencer celui de Google et les autres. L’équipe dirigeante de Cupertino pense pouvoir mettre en ligne le moteur interne d’ici la fin de l’année prochaine, mais il faudra rajouter dans l’équation le fait que si Apple avance, les autres ne font pas du surplace pour autant. Parviendra-t-elle à rattraper des concurrents qui s’améliorent de jour en jour ?
Reste que cet aveu d’impuissance n’est pas pour faire plaisir à Apple, qui ne devrait pas crier sur tous les toits qu’elle a conclu un partenariat avec Google pour son chatbot. D’autant que celui-ci devrait lui coûter un petit milliard de dollars par an.











