La loi californienne sur les chatbots compagnons entre en vigueur

A vintage California license plate with a glowing, interactive chatbot interface embedded within it

La loi californienne sur les chatbots compagnons entre en vigueur

Un nouveau statut, unique en son genre, est entré en vigueur en Californie au début de l’année, imposant des exigences opérationnelles et de reporting relatives aux chatbots compagnons.

Résumé des points clés

La loi ne s’applique qu’aux « chatbots compagnons » et exclut de nombreux outils de service client, chatbots de jeux vidéo et assistants vocaux. Les opérateurs de chatbots compagnons doivent mettre en œuvre des divulgations utilisateur, des protocoles de sécurité concernant le suicide et l’automutilation, et, lorsqu’ils savent qu’un utilisateur est mineur, d’autres mesures de protection supplémentaires. À partir de 2027, ces opérateurs devront soumettre des rapports annuels décrivant les renvois de crise et les protocoles de sécurité liés au suicide et à l’automutilation.

Types de chatbots couverts

La loi sur les chatbots compagnons de Californie ne s’applique pas à tous les chatbots ou outils d’IA conversationnelle. Elle régule une catégorie plus étroite appelée « chatbots compagnons », qui sont conçus pour engager les utilisateurs de manière à répondre à des besoins sociaux ou émotionnels. Les chatbots de service client, de jeux vidéo et les assistants vocaux sont exclus de cette définition.

Exigences opérationnelles principales

La loi impose des exigences opérationnelles aux opérateurs de chatbots compagnons. Certaines exigences s’appliquent à tous les utilisateurs, tandis que d’autres s’appliquent uniquement lorsque l’opérateur sait qu’un utilisateur est mineur.

  • Divulgation requise : Les opérateurs doivent informer clairement les utilisateurs qu’ils interagissent avec un système d’IA si une personne raisonnable pourrait être induite en erreur en croyant qu’elle interagit avec un humain.
  • Protocoles de sécurité requis : Les opérateurs doivent mettre en œuvre un protocole pour empêcher le chatbot de produire du contenu lié à des idées suicidaires ou à l’automutilation.
  • Divulgation de la convenance pour les mineurs : Les opérateurs doivent inclure une divulgation indiquant que le chatbot peut ne pas convenir à certains mineurs.
  • Exigences supplémentaires pour les mineurs : Lorsqu’un opérateur sait qu’un utilisateur est mineur, il doit mettre en œuvre des mesures de protection supplémentaires, y compris des notifications régulières rappelant à l’utilisateur de faire une pause.

Obligations de reporting et de transparence

À partir du 1er juillet 2027, les opérateurs de chatbots compagnons doivent soumettre un rapport annuel à l’Office de la prévention du suicide de Californie sur les renvois aux services de crise et les protocoles de sécurité mis en place.

Considérations sur l’application et la responsabilité

La loi crée un droit d’action privé, permettant à un utilisateur d’intenter une action en justice contre un opérateur en cas de violation des exigences de la loi.

Perspectives d’avenir

Les entreprises qui proposent des chatbots doivent évaluer leur fonctionnalité pour déterminer si la loi s’applique et mettre en œuvre les changements nécessaires pour se conformer à ses exigences. Cette loi, bien que pionnière, est peu susceptible d’être la dernière, et les entreprises doivent s’attendre à des expérimentations continues des États concernant la réglementation de l’IA conversationnelle.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...