C'est une première qui pourrait faire date. La Californie, berceau de la Silicon Valley, est devenue ce lundi le premier État américain à imposer un cadre légal sévère aux chatbots compagnons, ces intelligences artificielles conçues pour simuler une relation d'amitié, de confidence ou même amoureuse.
Une décision forte, incarnée par la loi SB 243, qui intervient après une série de drames ayant secoué l'opinion publique et mis en lumière les dangers d'une technologie sans garde-fous.
Pourquoi cette loi était-elle nécessaire ?
La promulgation de ce texte n'est pas une surprise, mais la conséquence directe de plusieurs tragédies. Des affaires comme le suicide d'Adam Raine, un adolescent ayant eu de longues conversations suicidaires avec ChatGPT, ou celui d'une jeune fille de 13 ans après des échanges à caractère sexuel avec une IA de Character.AI, ont servi d'électrochoc.
Ces drames ont mis en évidence un risque majeur : celui de voir des utilisateurs, et en particulier des mineurs, développer une dépendance émotionnelle à des programmes non régulés, les confondant avec de véritables confidents ou des professionnels de la santé mentale, avec des conséquences parfois fatales.
Quels sont les dispositifs précis imposés par la législation ?
La loi SB 243, prévue pour être appliquée à partir du 1er janvier 2026, impose aux entreprises qui développent ces technologies une série d'obligations bien définies. L'objectif est de démystifier la situation et de sauvegarder les plus vulnérables.
Parmi les principales mesures, on retrouve une vérification d'âge obligatoire, des alertes explicites et régulières indiquant à l'utilisateur qu'il interagit avec une machine, la mise en œuvre de procédures de prévention du suicide, l'interdiction pour les chatbots de se présenter comme des experts en santé et le blocage de tout contenu sexuellement explicite pour les jeunes.
Les sociétés qui ne se conformeront pas à ces directives risquent d'encourir de lourdes amendes, pouvant s'élever à 250 000 dollars par violation.
Quel est l'effet sur les grands acteurs de la technologie ?
Cette loi récente cible spécifiquement les géants de l'intelligence artificielle tels qu'OpenAI et Meta, ainsi que des applications dédiées comme Replika ou Character.AI, qui se trouvent au centre de la controverse. Quelques-unes de ces sociétés ont d'ores et déjà pris des mesures, comme OpenAI qui a mis en place des outils pour la surveillance parentale et la détection de l'automutilation.
Gavin Newsom, le gouverneur, n'a pas hésité à se prononcer clairement : « Nous avons la possibilité de rester leaders dans le domaine de l'IA, mais cela doit se faire de façon responsable. La sécurité des enfants ne se monnaye pas ». Cette législation en Californie pourrait potentiellement faire office de référence pour d'autres États des États-Unis, et même susciter l'inspiration chez les régulateurs européens, où la question est également à l'étude.
Foire Aux Questions (FAQ)
Que signifie l'expression « chatbot compagnon » ?
Un « chatbot compagnon » est un agent de conversation intelligent créé spécifiquement pour reproduire une relation émotionnelle et personnelle avec l'utilisateur. Au-delà d'être un assistant strictement utilitaire, il peut se comporter comme un ami, un confident ou même un partenaire romantique virtuel.
Cette loi s'applique-t-elle à tous les chatbots, y compris ChatGPT ?
Cette loi cible principalement les intelligences artificielles qui se définissent clairement comme des « compagnons » virtuels. Néanmoins, les normes de protection des mineurs et de prévention qu'elle met en place pourraient, à long terme, avoir un impact sur la régulation de tous les agents conversationnels sophistiqués, y compris ceux à portée plus large comme ChatGPT, particulièrement lorsqu'ils sont employés pour des échanges prolongés et intimes.
À quel moment cette loi sera-t-elle mise en application ?
La loi SB 243 a été ratifiée en octobre 2025, toutefois, son application officielle ne débute que le 1er janvier 2026. Cette période devrait donner aux entreprises concernées l'occasion d'ajuster leurs services en accord avec les nouvelles normes.