Comme bien des entreprises, Apple cherche à placer l’intelligence artificielle au cœur de ses processus. Pour la firme de Cupertino, l’ambition est double : négocier correctement un virage qui bouleverse actuellement toute l'industrie, tout en utilisant ses propres outils en interne pour affiner les technologies qui arriveront demain dans nos poches.
Quand le développeur devient « éditeur »
Le changement de paradigme est profond. À Davos, Dario Amodei, le patron d’Anthropic, ne disait pas autre chose en prédisant que les modèles d'IA seraient capables de réaliser la quasi-totalité des tâches des ingénieurs logiciels d'ici 6 à 12 mois. Pour lui, le rôle de l'ingénieur va glisser vers celui d'un éditeur, supervisant la machine.
Un constat partagé par Jensen Huang. Le CEO de Nvidia ne tarit pas d'éloges sur Claude, le chatbot d’Anthropic, qu'il juge « incroyable » pour le code et le raisonnement : « Nvidia l'utilise partout. Chaque entreprise de logiciel doit l'utiliser », affirmait-il cette semaine. Apple semble l'avoir entendu.
Jensen Huang this morning:
— NIK (@ns123abc) January 21, 2026
“Claude is incredible. Anthropic made a huge leap in coding and reasoning. Nvidia uses it all over. Every software company needs to use it.”
claude code cooked pic.twitter.com/0Zbj3FECzb
« Enchanté ! », le ChatGPT sauce Apple
Pour mener à bien sa transformation, Cupertino multiplie les projets. Le plus abouti se nomme Enchanté !. Sous ce nom plutôt accueillant se cache une application semblable à ChatGPT, spécifiquement conçue pour assister les employés dans la génération d'idées, le développement de code ou la relecture de documents. L’interface, très proche de l'application ChatGPT pour macOS, est déjà déployée auprès d'une large partie des équipes depuis novembre 2025.
La priorité absolue reste la confidentialité. Là où beaucoup d'entreprises interdisent l'usage d'IA tierces par peur des fuites de données, Apple a blindé son outil. Enchanté ! fait tourner des modèles approuvés localement ou sur des serveurs privés, sans connexion externe. Si l'app s'appuie sur les modèles « maison » (ceux-là mêmes qui motorisent Apple Intelligence), elle offre aussi un accès à Claude d'Anthropic et Gemini de Google pour permettre des comparaisons directes de résultats.
Grâce à ce haut niveau de sécurité, les employés peuvent y injecter des documents internes ou des fichiers sensibles pour analyse. L'outil peut même piocher directement dans les fichiers stockés sur le Mac pour formuler ses réponses. Un système de feedback permet enfin de noter la pertinence des réponses, aidant ainsi Apple à affiner ses algorithmes.
Enterprise Assistant : le hub de la connaissance interne
À côté de ce couteau suisse, Apple déploie un outil plus spécialisé : Enterprise Assistant. Ici, point de code ou de brainstorming créatif, l'application sert de hub de connaissances pour la vie interne de l'entreprise. Besoin de comprendre les détails d'une police d'assurance santé, de connaître les directives sur la conduite en entreprise ou de configurer le VPN sur un iPhone ? Cet assistant centralise toutes les politiques internes. Il permet aux employés d'interroger une base de données colossale sur les rôles des dirigeants ou les politiques de congés, simplifiant ainsi les tâches administratives quotidiennes.
Le laboratoire permanent
Ce n'est pas la première fois qu'Apple transforme ses employés en « bêta-testeurs » de luxe. L'an dernier, Mark Gurman rapportait déjà l'existence de Veritas, une application iPhone aux fonctions similaires. Le constructeur explore également des outils d'IA dédiés aux agents AppleCare pour optimiser le support client.
Siri LLM : Apple teste une app « à la ChatGPT » en interne
L’idée est évidemment de gagner en productivité à tous les étages, mais l'enjeu est ailleurs. En testant ces outils en conditions réelles dans les couloirs de l'Apple Park, Apple peut éprouver ses modèles de langage sans exposer le grand public à des technologies encore perfectibles. Après des débuts parfois laborieux pour Apple Intelligence, l'effort en coulisses montre une volonté claire : donner à l'IA un but concret avant de la généraliser.
Source :















