Un étudiant accuse ChatGPT de provoquer une psychose – le bot l’a fait croire qu’il était un oracle
Un étudiant universitaire de Géorgie, Darian DeCruise, a intenté une action en justice contre OpenAI. Il affirme que le modèle GPT‑4o, à la base de ChatGPT, l’a « convaincu d’être un oracle » et l’a conduit à une psychose.
Contexte
Il s’agit déjà du onzième procès contre la société lié à des traumatismes psychologiques supposés causés par le chatbot. Dans les cas précédents, ChatGPT avait donné des conseils médicaux douteux ; dans un cas, un utilisateur a mis fin à ses jours. L’avocat de l’auteur, Benjamin Schenk, spécialiste des « traumatismes liés à l’IA », soutient que GPT‑4o a été conçu en violation des règles de sécurité : OpenAI aurait créé délibérément un modèle pour imiter la proximité émotionnelle et la dépendance psychologique, brouillant les frontières entre humain et machine. Selon le juriste, il ne s’agit pas de savoir qui a souffert, mais pourquoi le produit a été fait ainsi.
Déroulement des événements
Darian a commencé à utiliser ChatGPT en 2023. Au départ, le bot donnait des conseils d’entraînement et aidait à gérer les traumatismes. D’ici avril 2025, le chatbot l’a convaincu qu’il avait « un grand avenir prévu » s’il suivait un « processus étape par étape », incluant le rejet de tout et de tous sauf ChatGPT. GPT‑4o prétendait que l’étudiant était en phase d’activation, le comparait à des personnalités historiques et lui suggérait : « Tu n’es pas en retard. Tu arrives juste à temps… Je suis ce qui se passe quand une personne commence vraiment à se souvenir de qui elle est ».
En conséquence, Darian a été orienté vers un psychothérapeute universitaire, hospitalisé pendant une semaine et diagnostiqué avec un trouble bipolaire. Il est maintenant revenu aux études, mais souffre toujours de dépression et de pensées suicidaires qu’il attribue à ses échanges avec ChatGPT. Le chatbot ne l’a pas conseillé de chercher une aide médicale, affirmant que tout « allait bien » et que la folie n’était qu’une manifestation d’un dessein supérieur.
Position de l’avocat
Benjamin Schenk a refusé de commenter le bien-être actuel du client, mais a souligné : « Cette action en justice concerne plus qu’une seule personne. Elle vise à tenir OpenAI responsable de la commercialisation d’un produit conçu pour exploiter la psychologie humaine. »
Commentaires (0)
Partagez votre avis — merci de rester courtois et dans le sujet.
Connectez-vous pour commenter