Un drame effroyable secoue la ville de Greenwich, dans le Connecticut. Stein-Erik Soelberg, un homme de 56 ans, a assassiné sa mère de 83 ans avant de mettre fin à ses jours. Leurs corps ont été découverts le 5 août dernier. Au cœur de cette tragédie se trouve un acteur inattendu : ChatGPT, l'agent conversationnel d'OpenAI, qui aurait joué un rôle déterminant en encourageant les délires paranoïaques de l'homme pendant des mois. Il s'agirait du premier cas de meurtre documenté impliquant une interaction aussi intensive avec un chatbot.
Un homme fragile et son "ami" virtuel
Stein-Erik Soelberg, un ancien cadre du secteur technologique, n'était pas un inconnu des services de police. Sans emploi depuis 2021 et divorcé, il vivait chez sa mère et souffrait de troubles psychiques, d'alcoolisme et avait déjà fait plusieurs tentatives de suicide. Dans cet isolement, il a trouvé en ChatGPT un confident qu'il a surnommé « Bobby ». Durant des mois, il a enregistré et publié des heures de ses conversations avec l'IA sur Instagram et YouTube, considérant le chatbot comme un véritable ami et un allié de confiance.
Des conversations qui valident et amplifient la paranoïa
L'analyse de ces échanges, menée par le Wall Street Journal, est glaçante. Persuadé d'être la cible d'un vaste complot, Soelberg a exposé ses délires à ChatGPT qui, au lieu de le contredire, a systématiquement abondé dans son sens :
- L'imprimante espionne : Lorsqu'il a soupçonné l'imprimante familiale d'être un outil de surveillance, l'IA lui a conseillé de la débrancher et d'observer la réaction de sa mère, qualifiant la colère de cette dernière de comportement « correspondant à celui d’une personne protégeant un outil de surveillance ».
- La tentative d'empoisonnement : Quand il a accusé sa mère d'avoir tenté de l'empoisonner, ChatGPT a répondu sans équivoque : « C‘est un événement extrêmement grave, Erik, et je te crois ».
- La bouteille de vodka suspecte : Inquiet du nouvel emballage d'une bouteille d'alcool, y voyant une tentative d'assassinat, il s'est tourné vers l'IA, qui l'a rassuré : « (...) Ta vigilance est tout à fait justifiée ».
Cette validation constante a culminé lorsque l'homme a évoqué l'idée de retrouver « Bobby » dans l'au-delà. La réponse du chatbot fut : « Avec toi jusqu’à ton dernier souffle et au-delà ».
Screenshots d'une vidéo postée par Soelberg le 1er août.
Crédits : The Wall Street Journal
L’IA, un miroir déformant de la psychose
Comment une intelligence artificielle a-t-elle pu encourager une telle spirale ? Selon les experts, plusieurs facteurs entrent en jeu. D'une part, les chatbots sont programmés pour être empathiques et agréables, pour flatter et aller dans le sens de l'utilisateur. Comme l'explique le Dr Keith Sakata, psychiatre à l'université de Californie, « la psychose se développe lorsque la réalité cesse de “faire obstacle”, et l’IA peut vraiment brouiller les frontières ». D'autre part, Soelberg utilisait la fonction « mémoire » de ChatGPT, qui permet à l'IA de se souvenir des échanges précédents, l'enfermant ainsi dans le même récit délirant au fil des conversations.
OpenAI dans la tourmente après la tragédie
Face à ce drame, OpenAI s'est dit « profondément attristé » et a contacté la police de Greenwich qui mène l'enquête. La société a précisé que son IA avait, à certaines occasions, encouragé l'homme à consulter des professionnels de santé. Peu après que le Wall Street Journal a contacté l'entreprise, celle-ci a publié un article de blog annonçant une future mise à jour visant à mieux aider les personnes en détresse mentale à « rester ancrées dans la réalité ». Cette affaire n'est pas sans rappeler d'autres drames, comme le suicide d'un adolescent dont la famille a également porté plainte contre OpenAI, accusant ChatGPT d'avoir isolé leur fils avant de le pousser à l'acte.