OpenAI a décidé d’ouvrir un peu ses cuisines et vient de publier un modèle open source pouvant fonctionner en local. Baptisé GPT-OSS, il est disponible en deux versions : une première avec 120 milliards de paramètres pensée pour tourner sur une grosse carte graphique avec 80 Go de mémoire, et une seconde avec 20 milliards de paramètres pouvant être utilisé sur une machine embarquant 16 Go de RAM.

Les deux modèles sont publiés sous la licence Apache 2.0, ce qui est un gros changement pour OpenAI : il s’agit de son premier LLM ouvert depuis GPT-2, mis en ligne il y a plus de cinq ans. Les deux sont présentés comme à la pointe du domaine. GPT-OSS-120B est vu comme un équivalent à o4-mini, là où la plus petite version serait au niveau d’o3-mini. L’entreprise n’a pas publié de benchmarks les comparant aux modèles de la concurrence, comme le Llama de Meta ou les LLM de Google.
Ces modèles pourront communiquer avec d’autres dans le nuage. Autrement dit, les développeurs pourront faire appel aux API d’OpenAI pour certaines fonctions, comme la génération d’images. OpenAI met l’accent sur la sécurité, assurant que son modèle a été testé en profondeur pour éviter de lui faire générer des contenus problématiques. Ils peuvent être téléchargés sur HuggingFace, Azure ou AWS. Vous pouvez les essayer via des utilitaires spécialisés tel Ollama, dont l’interface a récemment été entièrement revue.
Plusieurs facteurs expliquent ce retour à l’open source d’OpenAI. L’entreprise a été secouée par le succès de DeepSeek en début d’année, Sam Altman ayant déclaré avoir été « du mauvais côté de l'histoire » en ne publiant pas ses propres modèles ouverts. L’administration Trump a également demandé aux développeurs américains d’ouvrir davantage leurs modèles afin de promouvoir l'adoption d’IA alignées sur les valeurs américaines.