Ouvrir le menu principal

MacGeneration

Recherche

ChatGPT va essayer de deviner l’âge de ses utilisateurs pour protéger les ados

Stéphane Moussie

mardi 16 septembre 2025 à 21:50 • 3

Intelligence artificielle

Accusé récemment par des parents américains d’avoir conduit leur enfant dépressif de 16 ans au suicide, OpenAI a annoncé de nouvelles mesures de sécurité pour ChatGPT. Le robot conversationnel va tenter de déterminer l’âge de l’utilisateur afin d’adapter ses réponses lorsqu’il s’adresse à un adolescent.

Image OpenAI

« Par exemple, ChatGPT sera entraîné à ne pas tenir [de] propos aguicheurs si on lui en fait la demande, ni à participer à des discussions sur le suicide ou l’automutilation, même dans un cadre d’écriture créative », indique Sam Altman dans un billet de blog. De plus, si un utilisateur de moins de 18 ans a des idées suicidaires, l’entreprise tentera de contacter ses parents, ou à défaut des secours, en cas de risque immédiat.

Comme annoncé plus tôt, les parents pourront en effet lier leur compte à celui de leur enfant. À la manière des contrôles parentaux intégrés à Instagram ou Snapchat, les adultes pourront désactiver certaines fonctionnalités (historique des conversations et mémorisation de données personnelles), définir des plages horaires d’accès et donc recevoir un notification en cas de détresse aigüe.

Si l’âge de l’utilisateur n’arrive pas être déterminé précisément, ChatGPT basculera automatiquement dans sa version plus sûre pour les mineurs. Dans certains cas ou certains pays, une pièce d’identité pourra même être demandée. OpenAI n’a pas encore indiqué comment l’âge des utilisateurs sera déterminé, ni quand ces protections entreront en vigueur.

L

L'IA est là : notre série de l'été pour tout comprendre sur l'IA

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee