Grosse journée dans le monde de l’IA : OpenAI et Google ont tous deux lancé un nouveau modèle ! GPT-5.3 Instant est le nouveau moteur par défaut de ChatGPT tandis que Gemini 3.1 Flash-Lite est un nouveau modèle plus rapide et moins cher de la famille Gemini 3. Petit tour d’horizon des nouveautés.

Du côté d’OpenAI, GPT-5.3 Instant vise avant tout à rendre l’expérience plus fluide. Le modèle a été optimisé pour réduire les réponses hésitantes, les refus inutiles et les précautions qui ralentissaient parfois les échanges. L’idée est de donner des conversations plus naturelles et plus directes, où l’IA comprend mieux l’intention et répond avec davantage de précision.
OpenAI met aussi en avant des progrès sur la fiabilité et la recherche web. GPT-5.3 Instant serait moins sujet aux hallucinations et mieux capable de contextualiser les informations trouvées en ligne plutôt que d’empiler les liens. Le modèle devrait également améliorer la qualité d’écriture, avec des réponses plus nuancées et mieux structurées, que ce soit pour expliquer un sujet, analyser une actualité ou produire du contenu.
Ce nouveau modèle est dès à présent disponible pour les utilisateurs comme pour les développeurs faisant appel à l’API. Les mises à jour des modèles Thinking et Pro suivront « bientôt ». La version 5.2 de GPT-Instant restera en ligne pendant 3 mois avant d’être retirée début juin.
Chez Google, le lancement de Gemini 3.1 Flash-Lite suit une logique différente. Ce nouveau modèle est conçu pour être extrêmement rapide et très économique, afin de répondre aux besoins des développeurs qui doivent traiter de gros volumes de requêtes. Google le présente comme le modèle Gemini 3 le plus efficace en termes de coût et de latence.

Gemini 3.1 Flash-Lite reste un modèle multimodal capable de traiter texte, images, audio ou vidéo, tout en offrant une large fenêtre de contexte. L’idée est de fournir un LLM suffisamment performant pour les tâches courantes, mais optimisée pour tourner à grande échelle dans des applications, des agents ou des systèmes automatisés où chaque milliseconde et chaque token comptent. Ce modèle est disponible via l’API Gemini et pour les entreprises dans Vertex AI.











