Face à plusieurs suicides d'adolescents liés à des conversations avec des IA, la Californie prend les devants. Le gouverneur Gavin Newsom a promulgué la loi SB 243, un texte sans précédent aux États-Unis qui impose des garde-fous stricts aux "chatbots compagnons". Vérification de l'âge, avertissements et protocoles de prévention deviennent obligatoires pour protéger les utilisateurs vulnérables.

Une décision forte, incarnée par la loi SB 243, qui intervient après une série de drames ayant secoué l'opinion publique et mis en lumière les dangers d'une technologie sans garde-fous.
Pourquoi cette loi était-elle nécessaire ?
La promulgation de ce texte n'est pas une surprise, mais la conséquence directe de plusieurs tragédies. Des affaires comme le suicide d'Adam Raine, un adolescent ayant eu de longues conversations suicidaires avec ChatGPT, ou celui d'une jeune fille de 13 ans après des échanges à caractère sexuel avec une IA de Character.AI, ont servi d'électrochoc.

Quels sont les dispositifs précis imposés par la législation ?
La loi SB 243, prévue pour être appliquée à partir du 1er janvier 2026, impose aux entreprises qui développent ces technologies une série d'obligations bien définies. L'objectif est de démystifier la situation et de sauvegarder les plus vulnérables.

Les sociétés qui ne se conformeront pas à ces directives risquent d'encourir de lourdes amendes, pouvant s'élever à 250 000 dollars par violation.
Quel est l'effet sur les grands acteurs de la technologie ?
Cette loi récente cible spécifiquement les géants de l'intelligence artificielle tels qu'OpenAI et Meta, ainsi que des applications dédiées comme Replika ou Character.AI, qui se trouvent au centre de la controverse. Quelques-unes de ces sociétés ont d'ores et déjà pris des mesures, comme OpenAI qui a mis en place des outils pour la surveillance parentale et la détection de l'automutilation.

Foire Aux Questions (FAQ)
Que signifie l'expression « chatbot compagnon » ?
Un « chatbot compagnon » est un agent de conversation intelligent créé spécifiquement pour reproduire une relation émotionnelle et personnelle avec l'utilisateur. Au-delà d'être un assistant strictement utilitaire, il peut se comporter comme un ami, un confident ou même un partenaire romantique virtuel.
Cette loi s'applique-t-elle à tous les chatbots, y compris ChatGPT ?
Cette loi cible principalement les intelligences artificielles qui se définissent clairement comme des « compagnons » virtuels. Néanmoins, les normes de protection des mineurs et de prévention qu'elle met en place pourraient, à long terme, avoir un impact sur la régulation de tous les agents conversationnels sophistiqués, y compris ceux à portée plus large comme ChatGPT, particulièrement lorsqu'ils sont employés pour des échanges prolongés et intimes.
À quel moment cette loi sera-t-elle mise en application ?
La loi SB 243 a été ratifiée en octobre 2025, toutefois, son application officielle ne débute que le 1er janvier 2026. Cette période devrait donner aux entreprises concernées l'occasion d'ajuster leurs services en accord avec les nouvelles normes.
merci à GNT