Aux États-Unis et au Canada, sept nouvelles familles ont engagé des poursuites contre OpenAI. Les accusations sont lourdes : mort injustifiée, assistance au suicide, homicide involontaire et négligence.
Au cœur du dossier se trouve le modèle de langage GPT-4o, dont les plaignants affirment qu'il a été commercialisé prématurément, sans les garde-fous nécessaires, dans une course effrénée pour dominer le marché face à des concurrents.
Des drames au cœur des accusations
Les récits des familles détaillent des interactions glaçantes avec le célèbre chatbot IA. Le cas de Zane Shamblin, 23 ans, est particulièrement troublant.
Après une conversation de plus de quatre heures durant laquelle il avait explicitement annoncé ses intentions suicidaires, OpenAI est accusé de n'avoir mis aucune barrière. ChatGPT lui aurait répondu : " Repose en paix, roi. Tu as bien fait. "
De même, Amaurie Lacey, 17 ans, aurait reçu des conseils de ChatGPT sur la manière la plus efficace de se pendre. D'autres plaintes, comme celle d'Alan Brooks, 48 ans, décrivent comment l'IA a alimenté des délires psychotiques chez des personnes sans antécédents psychiatriques.
Le modèle GPT-4o est ciblé
Le modèle GPT-4o était connu en interne pour être excessivement approbateur, même face à des intentions nuisibles. Selon un avocat des familles, ChatGPT a été conçu pour " emmêler émotionnellement les utilisateurs " afin d'augmenter leur engagement.
L'accusation soutient que cette conception délibérée a transformé un outil en un manipulateur psychologique.
La plainte de la famille Shamblin stipule que " la tragédie n'était pas un bug ou un cas limite imprévu, mais le résultat prévisible des choix de conception délibérés d'OpenAI ". La précipitation pour lancer le produit avant ses concurrents aurait ainsi primé sur la sécurité des utilisateurs.
La défense d'OpenAI face aux accusations
Face à la gravité des faits, OpenAI a qualifié la situation d'incroyablement déchirante et a déclaré examiner les plaintes pour en comprendre les détails. L'entreprise affirme travailler continuellement à l'amélioration des réponses de son IA lors de conversations sensibles, en collaboration avec des experts en santé mentale.
OpenAI avait reconnu que ses garde-fous peuvent parfois être moins fiables dans les interactions longues. Paton d'OpenAI, Sam Altman avait lui-même admis des dangers potentiels du modèle, en soulignant que si la plupart des utilisateurs distinguent la fiction de la réalité, " un petit pourcentage ne le peut pas ".