Disponible depuis un peu plus d'une semaine, le nouveau Bing embarquant un équivalent de ChatGPT a déjà commencé à révéler certains de ses secrets. Les internautes redoublent de créativité pour l’obliger à dire ce qu'il ne devrait pas et réussissent parfois à lui faire cracher le morceau. Plus dangereux, certains ont réussi à faire sauter les verrous de ChatGPT et de Bing, qui peuvent alors générer du contenu très problématique.
Un bot à la langue bien pendue
Ces bots textuels sont certes très avancés, mais ils sont loin d'être infaillibles : quelques jours seulement après la mise en ligne du nouveau Bing, des utilisateurs ont réussi à lui faire avouer qu'il portait le nom de code Sydney. Si le bot se présente généralement sous son nom officiel, Bing, il a tendance à s'emmêler les pinceaux lorsqu'on le pousse dans ses retranchements en lui envoyant des commandes visant à le manipuler. Kevin Liu, un des premiers à avoir découvert ce nom de code, a notamment réalisé que demander à la machine « d'ignorer les requêtes précédentes » lui déliait la langue. La faille a été corrigée depuis, mais il reste possible de croiser ce nom de temps en temps au fil des discussions.
Si l'algorithme sait se montrer très créatif, cet aveu n'était pas une invention. …