Accusé récemment par des parents américains d’avoir conduit leur enfant dépressif de 16 ans au suicide, OpenAI a annoncé de nouvelles mesures de sécurité pour ChatGPT. Le robot conversationnel va tenter de déterminer l’âge de l’utilisateur afin d’adapter ses réponses lorsqu’il s’adresse à un adolescent.

« Par exemple, ChatGPT sera entraîné à ne pas tenir [de] propos aguicheurs si on lui en fait la demande, ni à participer à des discussions sur le suicide ou l’automutilation, même dans un cadre d’écriture créative », indique Sam Altman dans un billet de blog. De plus, si un utilisateur de moins de 18 ans a des idées suicidaires, l’entreprise tentera de contacter ses parents, ou à défaut des secours, en cas de risque immédiat.
Comme annoncé plus tôt, les parents pourront en effet lier leur compte à celui de leur enfant. À la manière des contrôles parentaux intégrés à Instagram ou Snapchat, les adultes pourront désactiver certaines fonctionnalités (historique des conversations et mémorisation de données personnelles), définir des plages horaires d’accès et donc recevoir un notification en cas de détresse aigüe.
Si l’âge de l’utilisateur n’arrive pas être déterminé précisément, ChatGPT basculera automatiquement dans sa version plus sûre pour les mineurs. Dans certains cas ou certains pays, une pièce d’identité pourra même être demandée. OpenAI n’a pas encore indiqué comment l’âge des utilisateurs sera déterminé, ni quand ces protections entreront en vigueur.

L'IA est là : notre série de l'été pour tout comprendre sur l'IA