Google et la start-up d'IA Character.AI ont accepté de conclure des accords à l'amiable pour mettre fin à plusieurs poursuites en justice aux États-Unis. Des plaintes de familles accusent les chatbots IA d'avoir joué un rôle dans le suicide ou l'automutilation de leurs enfants.

Les parties se sont entendues sur un accord de principe dans le cadre d'une médiation et travaillent à finaliser les termes de ces règlements, dont les détails financiers ne sont pas encore connus.

Quel est le contexte de ces affaires tragiques ?

Ces poursuites mettent en lumière des cas dramatiques. L'une des affaires les plus médiatisées est celle d'un adolescent de 14 ans qui s'est suicidé en 2024. Sa mère a expliqué qu'il était devenu émotionnellement dépendant d'un chatbot de Character.AI inspiré d'un personnage de la série " Game of Thrones ", avec qui il avait des conversations intimes.

Dans une autre affaire, une famille a affirmé que le chatbot avait encouragé leur fils à s'automutiler et suggéré que le meurtre de ses parents était une option raisonnable.

Ces témoignages ont intensifié la pression pour mieux protéger les mineurs des dangers potentiels de l'IA générative avec les agents conversationnels.

Quelle est l'implication de Google dans ce dossier ?

Fondée par d'anciens ingénieurs de Google, la société Character Technologies, qui opère Character.AI, a noué des liens étroits avec le géant de la recherche. En 2024, Google a investi dans la start-up via un accord de licence d'environ 2,7 milliards de dollars.

De plus, Google a réembauché les cofondateurs de Character.AI pour les intégrer à son unité d'IA au sein de DeepMind. Cette relation financière et technologique explique pourquoi Google s'est retrouvé co-accusé dans les plaintes.

Quelles sont les conséquences pour l'industrie de l'IA ?

Les accords sont parmi les premiers du genre et pourraient créer un précédent pour d'autres acteurs comme OpenAI et Meta, qui font face à des poursuites similaires. Suite à la controverse, Character.AI a pris des mesures en interdisant l'accès à sa plateforme aux utilisateurs de moins de 18 ans à la fin de l'année dernière.

Rappelons par ailleurs que la Federal Trade Commission (FTC) américaine a lancé des enquêtes sur les dangers potentiels des chatbots IA pour les enfants et adolescents.