Il y a 20 jours, OpenAI tentait une option qu’elle a vite retirée : en cochant une case, il devenait possible de rendre une conversation privée avec le chatbot disponible pour tous, et par là même... indexée par le moteur de recherche de Google. De quoi laisser partir aux quatre vents votre CV, vos petites tracas partagés avec l’intelligence artificielle, ou des données encore plus embêtantes.
It’s patently absurd that Apple isn’t smart enough to make their own AI, yet is somehow capable of ensuring that OpenAI will protect your security & privacy!
— Elon Musk (@elonmusk) June 10, 2024
Apple has no clue what’s actually going on once they hand your data over to OpenAI. They’re selling you down the river.
OpenAI a très vite réagi, supprimant cette possibilité et demandant à Google de désindexer les pages de conversations déjà enregistrées par le moteur de recherche.

OpenAI a laissé Google indexer des conversations, avant de vite faire machine arrière
Fin de l’histoire ? Non : xAI avec son chatbot Grok n’a semble-t-il pas retenu la leçon, ou est beaucoup moins regardant sur les données de ses utilisateurs. Quand vous cliquez sur le bouton « Partager » afin de faire part de votre conversation personnelle à un ami, l’URL créée pour l’occasion se retrouve automatiquement disponible pour les moteurs de recherche, et c’est ainsi que plus de 370 000 conversations privées sont disponibles pour n’importe qui souhaitant un peu fouiller.
C’est Forbes qui dévoile ce fonctionnement, le journaliste indiquant qu’à aucun moment l’utilisateur n’est averti de ce partage de la conversation non seulement avec son correspondant, mais surtout avec tous les moteurs d’indexation comme Google :
Sur Grok, utiliser le bouton « Partager » implique que la conversation sera publiée sur le site de Grok, sans aucun avertissement pour l’utilisateur. Aujourd’hui, une recherche Google pour des conversations Grok montre que le moteur a déjà indexé 370 000 conversations avec le bot. Les pages rendues publiques révèlent des conversations allant de la simple tâche bureautique comme écrire des tweets ou générer des images, jusqu’à une attaque terroriste fictive du Kashmir ou une demande d’aide au piratage de crypto-monnaies.
Des détails très privés semblent avoir été dévoilés au grand jour, comme des questions médicales ou des conseils psychologiques, certaines conversations comportent les noms et autres éléments permettant d’identifier les utilisateurs... même un mot de passe a été au moins une fois partagé. Des documents envoyés pour analyse au chatbot sont aussi liés, comme des images, des documents texte ou des feuilles de calcul.
Si cela ne suffisait encore pas, certaines conversations montrent que le chatbot de xAI est allé plusieurs fois à l’encontre des règles pourtant imposées par l’entreprise concernant certaines demandes :
Grok a proposé des instructions précises sur la façon de produire certaines drogues illégales comme le fentanyl ou la methamphétamine, a créé le code d’un malware auto-exécutable, ou encore créé un manuel pour la construction d’une bombe, ou des conseils pour un suicide. Grok a même offert un plan détaillé pouvant permettre l’assassinat d’Elon Musk.
Si OpenAI est rapidement revenue sur ses décisions, xAI n’a pour le moment pas communiqué sur le sujet, que ce soit pour expliquer ce partage non voulu ou indiquer si elle compte y mettre un terme.