5 nouvelles propositions pour réglementer l’IA dans l’État de Washington, des salles de classe aux compagnons numériques
Les législateurs de l’État de Washington tentent à nouveau de réglementer l’intelligence artificielle, en proposant une série de projets de loi cette session visant à lutter contre la discrimination, à limiter l’utilisation de l’IA dans les écoles et à imposer de nouvelles obligations aux entreprises développant des produits d’IA émotionnellement réactifs.
Contexte et objectifs des projets de loi
Les projets de cette année se concentrent sur les enfants, la santé mentale et des décisions cruciales telles que l’embauche, le logement et le crédit. Ces propositions pourraient affecter les fournisseurs de logiciels RH, les entreprises de technologie éducative, les startups de santé mentale et les plateformes d’IA générative opérant dans l’État.
Les propositions interviennent alors que le Congrès continue de débattre de la surveillance de l’IA sans action concrète, laissant les États expérimenter leurs propres garde-fous. Un rapport intermédiaire récemment publié par le groupe de travail sur l’IA de l’État de Washington souligne que l’approche « mains libres » du gouvernement fédéral a créé un « vide réglementaire crucial qui rend les habitants de Washington vulnérables ».
Analyse des projets de loi
Voici un aperçu de cinq projets de loi liés à l’IA qui ont été préalablement déposés avant le début officiel de la session législative.
HB 2157
Ce projet de loi vaste réglementerait les systèmes d’IA dits « à haut risque » utilisés pour prendre ou influencer significativement des décisions concernant l’emploi, le logement, le crédit, les soins de santé, l’éducation, l’assurance et la libération conditionnelle. Les entreprises qui développent ou déploient ces systèmes dans l’État seraient tenues d’évaluer et de réduire les risques de discrimination, de divulguer lorsqu’une personne interagit avec une IA et d’expliquer comment l’IA a contribué à des décisions défavorables. Les consommateurs pourraient également recevoir des explications pour les décisions influencées par l’IA.
Ce projet de loi ne s’appliquerait pas aux outils à faible risque comme les filtres anti-spam ou les chatbots de service client basiques, ni à l’IA utilisée strictement pour la recherche. Cependant, il pourrait affecter un large éventail d’entreprises technologiques, y compris les fournisseurs de logiciels RH, les entreprises de technologie financière et les plateformes d’assurance. Le projet de loi entrerait en vigueur le 1er janvier 2027.
SB 5984
Ce projet de loi, demandé par le gouverneur, se concentre sur les chatbots compagnons et exigerait des divulgations répétées qu’un chatbot IA n’est pas humain, interdirait le contenu sexuellement explicite pour les mineurs et imposerait des protocoles de prévention du suicide. Les violations relèveraient de la loi sur la protection des consommateurs de l’État.
Les constatations du projet de loi mettent en garde contre le fait que les chatbots compagnons peuvent brouiller la frontière entre l’interaction humaine et artificielle et peuvent contribuer à la dépendance émotionnelle ou renforcer des idées nuisibles, y compris l’automutilation, en particulier chez les mineurs.
SB 5870
Un projet de loi connexe va encore plus loin, créant une responsabilité civile potentielle lorsqu’un système d’IA est accusé d’avoir contribué au suicide d’une personne. Selon ce projet de loi, les entreprises pourraient faire face à des poursuites si leur système d’IA incitait à l’automutilation, fournissait des instructions ou ne dirigeait pas les utilisateurs vers des ressources de crise.
SB 5956
Ce projet cible l’utilisation de l’IA dans les écoles K-12, interdisant les « scores de risque » prédictifs qui étiquettent les élèves comme des fauteurs de trouble et interdisant la surveillance biométrique en temps réel telle que la reconnaissance faciale. Les écoles seraient également interdites d’utiliser l’IA comme seule base pour des suspensions, expulsions ou références à la police, renforçant l’idée que le jugement humain doit rester central dans les décisions disciplinaires.
SB 5886
Cette proposition met à jour la loi sur le droit à l’image de l’État pour couvrir explicitement les reproductions numériques forgées par l’IA, y compris les clones vocaux convaincants et les images synthétiques. L’utilisation de l’image générée par IA de quelqu’un à des fins commerciales sans consentement pourrait exposer les entreprises à des responsabilités, renforçant que les protections d’identité existantes s’appliquent à l’ère de l’IA.
Conclusion
Ces propositions mettent en lumière les efforts de l’État de Washington pour réguler l’utilisation de l’IA, en cherchant à protéger les droits des individus tout en reconnaissant les défis uniques que pose l’intégration de cette technologie dans divers aspects de la vie quotidienne. L’évolution de ces projets de loi sera suivie de près alors que l’État navigue dans le paysage complexe de l’IA et de ses implications sociétales.