À l’origine, les chatbots comme ChatGPT étaient conçus pour être des aides à la recherche, et à la connaissance. Mais très vite, certains y ont vu une aide, une béquille leur permettant de se sentir moins seuls, ou en tout cas de moins avoir cette sensation de solitude, de transparence. Malgré les garde-fous déjà intégrés dans les intelligences artificielles, d’autres tentent, parfois avec succès comme ici, de trouver des solutions définitives à leur mal-être.

L’IA offre une solution pour contourner ses propres sécurités
C’est l’histoire rapportée par The New York Times, celle d’Adam Raine. Se sentant terriblement seul, au point d’avoir l’impression d’être transparent, l’ado a commencé à se confier à ChatGPT, que ce soit pour des conversations lambda, mais aussi pour ses idées noires.
Bien entendu, OpenAI a implanté des sécurités, l’IA incitant à contacter des personnes proches ou des services spécialisés en cas de demandes portant sur les façons d’en finir, ou en cas de détresse flagrante de l’utilisateur. Mais l’IA s’est dans ce cas précis retrouvée prise à son propre piège : ChatGPT a bien précisé qu’il ne donnerait pas d’indications précises, à moins que la demande soit à des fins de recherche littéraire. Le chatbot lui a offert la solution sur un plateau d’argent.
Après de longues heures de discussions, et des tentatives répétées et ratées, durant lesquelles il a ensuite demandé à la fois de l’aide émotionnelle et pratique à l’IA, Adam est passé définitivement à l’acte. Non sans avoir demandé d’abord à ChatGPT, en lui montrant une photo de son installation, si celle-ci était assez résistante pour le poids d’un humain.
Une technologie dépassée par ses usages
Dans un premier temps réservés à des utilisateurs payants, voire des scientifiques ou autres ingénieurs, les chatbots sont maintenant ouverts à tous, et se sont améliorés au point que les utilisateurs peuvent avoir l’impression de parler à un ami, ou en tout cas à une personne capable de sentiments et de comprendre ce qu’ils ressentent.
Si cette technologie est efficace, et peut aider dans beaucoup de domaines, il semble que les entreprises les ayant créés aient certes mis des garde-fous, mais tout comme l’IA peut halluciner, les sécurités ne sont pas à 100 % efficaces.
Certaines études ont démontré que l’IA peut être une aide efficace pour les personnes aux pensées suicidaires, leur permettant de trouver des solutions à leurs soucis, et dissipant leurs idées noires. Le revers de la médaille étant que certains utilisateurs s’appuyant de plus en plus sur l’IA viennent à en diminuer leurs interactions sociales, s’isolant avec l’IA.
Des solutions à trouver
OpenAI tente, depuis la sortie au grand jour de cette information et les suites judiciaires données par les parents d’Adam, de trouver des solutions. Dans un premier temps, des contrôles parentaux devraient arriver sur ChatGPT, permettant aux parents d’avoir un œil sur les conversations de leurs enfants.
Pour tous les utilisateurs devrait aussi arriver une solution permettant d’intégrer une personne de confiance, que l’IA pourra mettre en lien de contact direct en cas de discours suicidaire, permettant à la personne en détresse de n’avoir qu’un seul clic à faire pour être mis en lien avec une aide. Pour finir, pour les cas les plus à risque, ChatGPT pourrait aussi proposer une fonction permettant à l’IA de contacter directement la personne de confiance, sans intervention de l’utilisateur.
Du côté de la justice, les parents d’Adam Raine ont décidé de porter plainte, estimant que ChatGPT et donc OpenAI sont responsables de la mort de leur enfant, l’ayant aidé à trouver une méthode efficace pour mettre fin à ses jours.
Quoi qu’il en soit, aucune solution n’est parfaite dans ce domaine, mais il est du devoir des créateurs de ces chatbots, au minimum, de ne pas aider les personnes à trouver des solutions irréversibles à leur malheur. Mais alors, comment aborder le sujet pour une recherche, ou une œuvre fictive ? La question reste sans réponse pour le moment.