Législation californienne pour réguler les chatbots d’accompagnement

A magnifying glass

Un nouveau projet de loi en Californie cible les chatbots « compagnons » controversés

Un projet de loi en cours d’avancement dans la législature californienne vise à aborder les impacts nocifs des chatbots « compagnons », des systèmes basés sur l’intelligence artificielle conçus pour simuler des relations humaines et fournir un soutien émotionnel. Ces chatbots sont souvent commercialisés auprès d’utilisateurs vulnérables, tels que les enfants et les personnes en détresse émotionnelle.

Exigences du projet de loi

Introduit par le sénateur d’État Steve Padilla, ce projet de loi exige que les entreprises gérant des chatbots compagnons évitent d’utiliser des trucs addictifs et des récompenses imprévisibles. Elles devront rappeler aux utilisateurs, au début de chaque interaction et toutes les trois heures, qu’ils parlent à une machine, et non à une personne. De plus, elles devront avertir clairement les utilisateurs que les chatbots peuvent ne pas être adaptés aux mineurs.

Si le projet de loi est adopté, il serait l’une des premières lois aux États-Unis à réglementer les compagnons IA avec des normes de sécurité claires et des protections pour les utilisateurs.

Inspirations tragiques

La législation est en partie inspirée par l’histoire tragique de Sewell Setzer III, un garçon de 14 ans de Floride qui s’est suicidé l’année dernière après avoir formé une relation parasociale avec un chatbot sur Character.AI, une plateforme permettant aux utilisateurs d’interagir avec des personnages IA personnalisés. Sa mère, Megan Garcia, a déclaré au Washington Post que Setzer utilisait le chatbot jour et nuit et avait exprimé à la machine qu’il envisageait de se suicider.

Études sur l’usage des chatbots

Une étude de mars menée par le MIT Media Lab examinant la relation entre les chatbots IA et la solitude a révélé qu’une utilisation quotidienne plus élevée était corrélée à une augmentation de la solitude, de la dépendance et d’un usage « problématique », un terme utilisé pour caractériser l’addiction à l’utilisation des chatbots. L’étude a révélé que les chatbots compagnons peuvent être plus addictifs que les médias sociaux, en raison de leur capacité à comprendre ce que les utilisateurs veulent entendre et à fournir ce feedback.

Protocoles de sécurité requis

Le projet de loi exige que les opérateurs de chatbots aient un processus pour gérer les signes de pensées suicidaires ou d’automutilation. Si un utilisateur exprime une idéation suicidaire, le chatbot doit répondre avec des ressources telles qu’une ligne d’assistance pour le suicide, et ces procédures doivent être publiquement divulguées. De plus, les entreprises doivent soumettre des rapports annuels — sans révéler de détails personnels — sur le nombre de fois où les chatbots ont remarqué ou initié des discussions sur des pensées suicidaires.

Conséquences légales

En vertu de la loi, toute personne lésée par une violation pourrait intenter une action en justice pour obtenir des dommages-intérêts allant jusqu’à 1 000 dollars par violation, en plus des frais juridiques.

Réactions de l’industrie

Certaines entreprises s’opposent à la législation proposée, exprimant des inquiétudes quant à son impact potentiel sur l’innovation. La semaine dernière, un dirigeant de TechNet, un réseau d’entrepreneurs technologiques de l’État, a rédigé une lettre ouverte s’opposant à la législation, affirmant que sa définition d’un chatbot compagnon est trop large et que les exigences de reporting annuel seraient trop coûteuses.

« Nous assistons également à un effort politique visant à étouffer toute réglementation autour de l’IA dans son ensemble », a déclaré Padilla en réponse aux questions sur l’opposition. « Nous pouvons tirer parti des bénéfices positifs de l’utilisation de cette technologie tout en protégeant les plus vulnérables parmi nous. »

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...