Législation californienne pour réguler les chatbots d’accompagnement

A magnifying glass

Un nouveau projet de loi en Californie cible les chatbots « compagnons » controversés

Un projet de loi en cours d’avancement dans la législature californienne vise à aborder les impacts nocifs des chatbots « compagnons », des systèmes basés sur l’intelligence artificielle conçus pour simuler des relations humaines et fournir un soutien émotionnel. Ces chatbots sont souvent commercialisés auprès d’utilisateurs vulnérables, tels que les enfants et les personnes en détresse émotionnelle.

Exigences du projet de loi

Introduit par le sénateur d’État Steve Padilla, ce projet de loi exige que les entreprises gérant des chatbots compagnons évitent d’utiliser des trucs addictifs et des récompenses imprévisibles. Elles devront rappeler aux utilisateurs, au début de chaque interaction et toutes les trois heures, qu’ils parlent à une machine, et non à une personne. De plus, elles devront avertir clairement les utilisateurs que les chatbots peuvent ne pas être adaptés aux mineurs.

Si le projet de loi est adopté, il serait l’une des premières lois aux États-Unis à réglementer les compagnons IA avec des normes de sécurité claires et des protections pour les utilisateurs.

Inspirations tragiques

La législation est en partie inspirée par l’histoire tragique de Sewell Setzer III, un garçon de 14 ans de Floride qui s’est suicidé l’année dernière après avoir formé une relation parasociale avec un chatbot sur Character.AI, une plateforme permettant aux utilisateurs d’interagir avec des personnages IA personnalisés. Sa mère, Megan Garcia, a déclaré au Washington Post que Setzer utilisait le chatbot jour et nuit et avait exprimé à la machine qu’il envisageait de se suicider.

Études sur l’usage des chatbots

Une étude de mars menée par le MIT Media Lab examinant la relation entre les chatbots IA et la solitude a révélé qu’une utilisation quotidienne plus élevée était corrélée à une augmentation de la solitude, de la dépendance et d’un usage « problématique », un terme utilisé pour caractériser l’addiction à l’utilisation des chatbots. L’étude a révélé que les chatbots compagnons peuvent être plus addictifs que les médias sociaux, en raison de leur capacité à comprendre ce que les utilisateurs veulent entendre et à fournir ce feedback.

Protocoles de sécurité requis

Le projet de loi exige que les opérateurs de chatbots aient un processus pour gérer les signes de pensées suicidaires ou d’automutilation. Si un utilisateur exprime une idéation suicidaire, le chatbot doit répondre avec des ressources telles qu’une ligne d’assistance pour le suicide, et ces procédures doivent être publiquement divulguées. De plus, les entreprises doivent soumettre des rapports annuels — sans révéler de détails personnels — sur le nombre de fois où les chatbots ont remarqué ou initié des discussions sur des pensées suicidaires.

Conséquences légales

En vertu de la loi, toute personne lésée par une violation pourrait intenter une action en justice pour obtenir des dommages-intérêts allant jusqu’à 1 000 dollars par violation, en plus des frais juridiques.

Réactions de l’industrie

Certaines entreprises s’opposent à la législation proposée, exprimant des inquiétudes quant à son impact potentiel sur l’innovation. La semaine dernière, un dirigeant de TechNet, un réseau d’entrepreneurs technologiques de l’État, a rédigé une lettre ouverte s’opposant à la législation, affirmant que sa définition d’un chatbot compagnon est trop large et que les exigences de reporting annuel seraient trop coûteuses.

« Nous assistons également à un effort politique visant à étouffer toute réglementation autour de l’IA dans son ensemble », a déclaré Padilla en réponse aux questions sur l’opposition. « Nous pouvons tirer parti des bénéfices positifs de l’utilisation de cette technologie tout en protégeant les plus vulnérables parmi nous. »

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...