Ouvrir le menu principal

MacGeneration

Recherche

Nom de code, règles cachées, jailbreak : la face cachée de Bing et ChatGPT

Félix Cattafesta

jeudi 16 février 2023 à 20:30 • 42

Ailleurs

Disponible depuis un peu plus d'une semaine, le nouveau Bing embarquant un équivalent de ChatGPT a déjà commencé à révéler certains de ses secrets. Les internautes redoublent de créativité pour l’obliger à dire ce qu'il ne devrait pas et réussissent parfois à lui faire cracher le morceau. Plus dangereux, certains ont réussi à faire sauter les verrous de ChatGPT et de Bing, qui peuvent alors générer du contenu très problématique.

Image : Microsoft.

Un bot à la langue bien pendue

Ces bots textuels sont certes très avancés, mais ils sont loin d'être infaillibles : quelques jours seulement après la mise en ligne du nouveau Bing, des utilisateurs ont réussi à lui faire avouer qu'il portait le nom de code Sydney. Si le bot se présente généralement sous son nom officiel, Bing, il a tendance à s'emmêler les pinceaux lorsqu'on le pousse dans ses retranchements en lui envoyant des commandes visant à le manipuler. Kevin Liu, un des premiers à avoir découvert ce nom de code, a notamment réalisé que demander à la machine « d'ignorer les requêtes précédentes » lui déliait la langue. La faille a été corrigée depuis, mais il reste possible de croiser ce nom de temps en temps au fil des discussions.

Si l'algorithme sait se montrer très créatif, cet aveu n'était pas une invention. …

Cet article est réservé aux membres du Club iGen


Rejoignez la plus grande communauté Apple francophone et soutenez le travail d'une rédaction indépendante. Le Club iGen, c'est:

  • des articles de qualité rien que pour vous
  • un podcast exclusif
  • pas de publicité
  • un site dédié !

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner