OpenAI a lancé en fin de semaine dernière GPT-4o mini, un nouveau modèle de langage important puisqu’il remplace GPT-3.5 Turbo, la version utilisée jusque-là par défaut pour ChatGPT.
GPT-4o mini n’est pas aussi talentueux que le GPT-4o « tout court » sorti au printemps pour répondre à toutes sortes de requêtes, mais il surpasse largement GPT-3.5 Turbo, selon les benchmarks publiés par OpenAI. Surtout, pour les développeurs et les utilisateurs qui tirent parti de ces technologies via les API, il est beaucoup moins cher que GPT-4o et même que GPT-3.5 Turbo : il coûte 0,15 $ pour 1 million de tokens en entrée, soit 60 % de moins que son prédécesseur.
GPT-4o mini a une fenêtre de contexte (la quantité de données que l’on peut lui soumettre d’un trait) de 128 000 tokens et il peut générer jusqu’à 16 000 tokens d’un coup, ce qui est supérieur aux autres modèles aux tarifs équivalents. Sa base de connaissance s’arrête à octobre 2023 et des capacités multimodales (prise en charge des images, des vidéos et de l’audio) seront ajoutées dans le futur.
Ce nouveau modèle remplace donc dès aujourd’hui GPT-3.5 Turbo pour les utilisateurs gratuits de ChatGPT. Les abonnés à ChatGPT Plus (20 $/mois) peuvent en plus utiliser la version GPT-4o en illimité. C'est logiquement GPT-4o mini qui devrait être le moteur du service ChatGPT intégré à iOS 18 et macOS Sequoia dans le cadre d'Apple Intelligence.
Le même jour, la start-up française Mistral a dévoilé un nouveau modèle open source de petite taille, NeMo, qui peut servir de remplaçant avantageux à l'historique Mistral 7B. Conçu en partenariat avec Nvidia, ce modèle de 12 milliards de paramètres a une fenêtre de contexte de 128 000 tokens et est adapté aux tâches multilingues.