Ouvrir le menu principal

MacGeneration

Recherche

Avec GPT-4o, OpenAI ouvre grand les yeux et les oreilles de ChatGPT

Florian Innocente

Monday 13 May 2024 à 21:55 • 69

Services

OpenAI a dévoilé "GPT-4o", une évolution de son modèle d'IA générative dont les capacités de traitement ont été largement améliorées pour le texte, l'audio et la vision.

GPT-4o (le "o" signifiant "omni" pour l'étendue de ses capacités) reste à un niveau d'intelligence comparable à celui de ChatGTP-4, a expliqué Mira Murati, la responsable technique d'OpenAI en préambule à une démonstration des nouveautés de printemps. Mais OpenAI a amélioré les capacités d'analyse audio de ChatGPT de manière à ce que l'utilisateur ait le sentiment d'un véritable dialogue avec l'assistant, avec des intonations de voix, la simulation d'émotions ou la possibilité de l'interrompre pour enchainer sur un autre sujet.

GPT-4o améliore ensuite sa capacité de compréhension d'une image et de son contenu. C'est utilisé par exemple dans la nouvelle et première version Mac de ChatGPT qui peut observer l'écran ou une capture qu'on lui soumet et qu'il va commenter, comme le ferait un super Siri.

OpenAI lance ChatGPT pour macOS face à Siri et Spotlight

OpenAI lance ChatGPT pour macOS face à Siri et Spotlight

Dans une autre démo, deux iPhone font chacun tourner GPT-4o. L'un utilise la caméra frontale pour voir ce qui se passe devant son objectif. L'autre assistant lui demande alors de décrire la pièce, la décoration, la personne devant et ce qu'elle est en train de faire (plusieurs autres vidéos de démo sont disponibles ici). Dans une autre démo, c'est un non-voyant qui exploite cette faculté d'analyse d'événements en direct en extérieur dans la rue.

À l'avenir cela pourrait aller beaucoup plus loin et toujours en temps réel. Par exemple, ChatGPT pourrait observer la vidéo d'un match et expliquer ce qui se passe ainsi que les règles de la discipline, a suggéré Mira Murati. Pour la traduction en direct, le moteur s'est amélioré sur 50 langues environ et l'opération est deux fois plus rapide. Une personne parlant dans une langue s'adresse à ChatGPT qui traduit l'échange dans une autre langue pour un autre interlocuteur.

Ce volet voix n'est pas encore intégré à l'API de GPT-4o maintenant disponible pour tous. OpenAI veut continuer de l'améliorer auprès d'un cercle restreint d'utilisateurs afin de poser quelques barrières. D'ici un mois les utilisateurs de la formule Plus devraient en disposer en version alpha.

GPT-4o est proposé dès aujourd'hui aux utilisateurs de la formule gratuite de ChatGPT ainsi qu'aux souscripteurs des formules payantes Plus et Teams avec un quota de messages multiplié par 5. Cette limite dépassée, ChatGPT basculera sur un modèle plus ancien, GPT-3.5.

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner