Alors que DALL-E 3 arrive dans ChatGPT Plus, OpenAI annonce un outil de détection de fausses images

Félix Cattafesta |

DALL-E 3 est désormais accessible aux clients ChatGPT Plus. La bonne nouvelle a été annoncée dans un communiqué, précisant que les personnes titulaires d'un abonnement Entreprise pourront elles-aussi créer des images directement depuis le chatbot. Pour rappel, ChatGPT Plus est facturé 20 $ par mois.

DALL-E 3 est le nouveau générateur d'image d'OpenAI, permettant d'obtenir des images bluffantes simplement en la décrivant à l'aide de quelques mots. Présenté à la fin septembre, celui-ci peut écrire correctement du texte dans une image et s'est nettement amélioré pour représenter des mains. Son intégration à ChatGPT permet à l'utilisateur de modifier une image en décrivant les changements attendus, par exemple « je veux la même image dans un style différent ». Si la nouvelle devrait ravir les gros utilisateurs du service, rappelons que DALL-E 3 est accessible gratuitement via le chatbot Bing de Microsoft, ou en passant par un site dédié.

L'épatant générateur d'images DALL-E 3 est désormais disponible pour tous

OpenAI cherche toujours à calmer les polémiques autour de son outil, qui est certes très amusant, mais qui peut vite être détourné à de mauvaises fins. Dans son communiqué, l'entreprise assure une nouvelle fois avoir fait preuve de prudence pour éviter les dérapages et avoir intégré un système de sécurité « à plusieurs niveaux » pour limiter la capacité du service à générer des images potentiellement dangereuses.

Des contrôles de sécurité sont effectués sur les invites de l'utilisateur et sur les images résultantes avant qu'elles ne soient présentées aux utilisateurs. Nous avons également travaillé avec les premiers utilisateurs et des experts pour identifier et combler les lacunes dans la couverture de nos systèmes de sécurité qui sont apparues avec les nouvelles capacités du modèle.

Les générateurs d'images du genre sont un outil idéal pour faire proliférer des fake news : on a par exemple vu passer au mois de mai une fausse image d'une explosion à côté du Pentagone. Interrogée sur le sujet, la CTO d'OpenAI Mira Murati a déclaré que l'entreprise développait une technologie pour détecter si une image était vraie ou fausse. Cet outil serait « fiable à près de 99 % », mais est actuellement en phase de test interne. On lui souhaite plus de succès qu'à son outil de détection de textes générés par IA, discrètement enterré après 6 mois de service à cause de son manque de fiabilité.

Accédez aux commentaires de l'article