Ouvrir le menu principal

MacGeneration

Recherche

Après la mort d’un ado de 16 ans, OpenAI cherche des garde-fous efficaces sur fond de procès

Greg Onizuka

mercredi 27 août 2025 à 21:30 • 137

Intelligence artificielle

À l’origine, les chatbots comme ChatGPT étaient conçus pour être des aides à la recherche, et à la connaissance. Mais très vite, certains y ont vu une aide, une béquille leur permettant de se sentir moins seuls, ou en tout cas de moins avoir cette sensation de solitude, de transparence. Malgré les garde-fous déjà intégrés dans les intelligences artificielles, d’autres tentent, parfois avec succès comme ici, de trouver des solutions définitives à leur mal-être.

L’IA offre une solution pour contourner ses propres sécurités

C’est l’histoire rapportée par The New York Times, celle d’Adam Raine. Se sentant terriblement seul, au point d’avoir l’impression d’être transparent, l’ado a commencé à se confier à ChatGPT, que ce soit pour des conversations lambda, mais aussi pour ses idées noires.

Bien entendu, OpenAI a implanté des sécurités, l’IA incitant à contacter des personnes proches ou des services spécialisés en cas de demandes portant sur les façons d’en finir, ou en cas de détresse flagrante de l’utilisateur. Mais l’IA s’est dans ce cas précis retrouvée prise à son propre piège : ChatGPT a bien précisé qu’il ne donnerait pas d’indications précises, à moins que la demande soit à des fins de recherche littéraire. Le chatbot lui a offert la solution sur un plateau d’argent.

Après de longues heures de discussions, et des tentatives répétées et ratées, durant lesquelles il a ensuite demandé à la fois de l’aide émotionnelle et pratique à l’IA, Adam est passé définitivement à l’acte. Non sans avoir demandé d’abord à ChatGPT, en lui montrant une photo de son installation, si celle-ci était assez résistante pour le poids d’un humain.

Une technologie dépassée par ses usages

Dans un premier temps réservés à des utilisateurs payants, voire des scientifiques ou autres ingénieurs, les chatbots sont maintenant ouverts à tous, et se sont améliorés au point que les utilisateurs peuvent avoir l’impression de parler à un ami, ou en tout cas à une personne capable de sentiments et de comprendre ce qu’ils ressentent.

Si cette technologie est efficace, et peut aider dans beaucoup de domaines, il semble que les entreprises les ayant créés aient certes mis des garde-fous, mais tout comme l’IA peut halluciner, les sécurités ne sont pas à 100 % efficaces.

Certaines études ont démontré que l’IA peut être une aide efficace pour les personnes aux pensées suicidaires, leur permettant de trouver des solutions à leurs soucis, et dissipant leurs idées noires. Le revers de la médaille étant que certains utilisateurs s’appuyant de plus en plus sur l’IA viennent à en diminuer leurs interactions sociales, s’isolant avec l’IA.

Des solutions à trouver

OpenAI tente, depuis la sortie au grand jour de cette information et les suites judiciaires données par les parents d’Adam, de trouver des solutions. Dans un premier temps, des contrôles parentaux devraient arriver sur ChatGPT, permettant aux parents d’avoir un œil sur les conversations de leurs enfants.

Pour tous les utilisateurs devrait aussi arriver une solution permettant d’intégrer une personne de confiance, que l’IA pourra mettre en lien de contact direct en cas de discours suicidaire, permettant à la personne en détresse de n’avoir qu’un seul clic à faire pour être mis en lien avec une aide. Pour finir, pour les cas les plus à risque, ChatGPT pourrait aussi proposer une fonction permettant à l’IA de contacter directement la personne de confiance, sans intervention de l’utilisateur.

Du côté de la justice, les parents d’Adam Raine ont décidé de porter plainte, estimant que ChatGPT et donc OpenAI sont responsables de la mort de leur enfant, l’ayant aidé à trouver une méthode efficace pour mettre fin à ses jours.

Quoi qu’il en soit, aucune solution n’est parfaite dans ce domaine, mais il est du devoir des créateurs de ces chatbots, au minimum, de ne pas aider les personnes à trouver des solutions irréversibles à leur malheur. Mais alors, comment aborder le sujet pour une recherche, ou une œuvre fictive ? La question reste sans réponse pour le moment.

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Pas d'écran, mais de l'IA : voici à quoi pourraient ressembler les premières lunettes d'Apple

07:50

• 7


IKEA prépare la mise en rayon complète de sa nouvelle gamme Matter pour janvier 2026

07:50

• 47


Free tease l’arrivée de l’Apple Watch : c'est imminent !

06:34

• 14


Twitter pourrait bien ressusciter, au nez et à la barbe de X

06:19

• 67


Apple Music et Apple TV indisponibles pour certains utilisateurs

10/12/2025 à 21:57

• 9


120 Hz, HDR, A19 : du code laisse entrevoir les caractéristiques du prochain Studio Display

10/12/2025 à 21:00

• 22


Test de l'écran 5K de Japannext : pas de fioritures et un prix intéressant

10/12/2025 à 20:30

• 7


Le détecteur de présence FP300 d’Aqara joue à cache-cache : de nouveau disponible, mais pour combien de temps ?

10/12/2025 à 18:37

• 7


Les États-Unis veulent contrôler les profils des réseaux sociaux des touristes

10/12/2025 à 18:13

• 116


Photoshop s’intègre à ChatGPT, mais ça ne vaut pas le Nano Banana de Google

10/12/2025 à 16:32

• 6


SoundAnchor évite à votre Mac d’utiliser le mauvais micro

10/12/2025 à 14:54

• 5


Oubliez Google : le véritable rival d’OpenAI pour Sam Altman, c’est Apple

10/12/2025 à 14:27

• 69


Bons plans : les ampoules, serrures et autres objets connectés toujours au prix du Black Friday

10/12/2025 à 14:24

• 7


Google Maps se met enfin à niveau : Plans et Waze faisaient déjà ça en 2016

10/12/2025 à 13:53

• 84


La folie des bilans de l’année : même ma voiture propose son « wrapped »

10/12/2025 à 10:50

• 21


Un écran nomade 15" USB-C/HDMI pour moins de 100 €

10/12/2025 à 10:40

• 0