Deux lois sur l’IA : des approches divergentes

A puzzle piece

Deux nouvelles lois sur l’IA, deux directions différentes (pour l’instant)

Dans un contexte où l’innovation technologique s’accélère, deux États américains, le Colorado et l’Utah, ont récemment pris des mesures significatives concernant la régulation de l’intelligence artificielle (IA). Cet article explore les développements récents dans ces deux États, mettant en lumière leurs approches distinctes et leurs implications pour l’avenir de la législation sur l’IA.

Principaux points à retenir

– Le parlement du Colorado rejette les amendements à la loi sur l’IA du Colorado (CAIA).

– Les amendements proposés cherchaient à introduire plusieurs exemptions et clarifications.

– Le parlement de l’Utah adopte des amendements qui incluent un abri juridique pour les chatbots de santé mentale.

– La disposition de l’abri juridique de l’Utah comprend un cadre de politique et de procédures écrites.

Les amendements rejetés du Colorado

La semaine dernière, des amendements très attendus à la loi sur l’IA du Colorado ont été soumis au parlement. Cependant, dans un tournant surprenant, chaque amendement proposé a été rejeté, ce qui lance une course vers le 1er février 2026, date d’entrée en vigueur de cette loi pionnière concernant l’utilisation de l’IA avec les consommateurs.

Les raisons du rejet des amendements ne sont pas surprenantes : ils incluaient des demandes opposées de la part du secteur technologique et des défenseurs des consommateurs. Parmi les changements techniques, on trouvait des exemptions pour certaines technologies de la définition de « haut risque » et une exception pour les développeurs qui divulguent les poids des modèles de système. D’autres changements, non techniques, incluaient l’élimination du devoir d’un développeur ou d’un déployeur d’un système IA à haut risque d’utiliser un soin raisonnable pour protéger les consommateurs.

Il est surprenant que tous les amendements aient été rejetés, y compris ceux qui auraient retardé le pouvoir de l’avocat général d’appliquer les violations de la CAIA jusqu’en 2027.

Les amendements de l’Utah

De son côté, l’Utah a récemment mis en place des amendements à la loi sur l’IA (UAIP) qui ont pris effet cette semaine. Ces amendements visent à améliorer la protection des consommateurs tout en encourageant l’innovation responsable. La législation de l’Utah inclut des éléments essentiels basés sur des pratiques recommandées pour l’utilisation de l’IA par les thérapeutes de santé mentale.

Les recommandations comprennent des éléments tels que :

  1. Consentement éclairé ;
  2. Divulgation ;
  3. Protection des données et sécurité ;
  4. Compétence ;
  5. Besoins des patients ;
  6. Suivi et réévaluation continus.

Un point central des recommandations est la compétence. Les thérapeutes doivent maintenir un niveau élevé de compétence, ce qui implique une éducation continue pour comprendre les capacités et les limites des technologies IA. Cela souligne également un devoir de vigilance pour les développeurs et les utilisateurs de systèmes IA.

La loi de l’Utah inclut également une disposition d’abri juridique pour les chatbots de santé mentale. Pour bénéficier de cette protection, le fournisseur doit élaborer une politique écrite décrivant l’objectif du chatbot, ses capacités et ses limites.

Pensées finales

Ces deux approches contrastées du Colorado et de l’Utah soulignent l’importance d’une littératie en IA pour les législateurs et les consommateurs. Alors que le Colorado se dirige vers une réglementation stricte, l’Utah adopte une approche plus équilibrée, cherchant à favoriser l’innovation tout en protégeant les consommateurs. L’avenir de la législation sur l’IA dans ces États pourrait influencer d’autres juridictions à travers le pays, alors que le besoin d’une réglementation réfléchie et efficace devient de plus en plus pressant.

Articles

L’illusion de l’IA : Quand la rapidité mène à la négligence

Dans un monde obsédé par des résultats plus rapides et moins chers, l'IA a rendu le concept de « suffisant » très tentant en matière de conformité. Cependant, la conformité n'est pas une course...

Nouveau Code de Pratique pour l’IA Générale en Europe

Le 10 juillet 2025, la Commission européenne a publié la version finale du Code de pratique sur l'IA à usage général, trois semaines avant l'entrée en vigueur des obligations relatives aux modèles...

Code de conformité de l’UE pour l’IA : une nouvelle ère pour les entreprises

L'Union européenne a publié un nouveau code de pratique volontaire pour aider les entreprises à se conformer à la prochaine loi sur l'IA, qui régira l'utilisation de l'IA dans les 27 États membres. Ce...

Responsabilité et transparence : repenser l’approvisionnement en IA dans les gouvernements

En 2018, le public a appris que le département de police de la Nouvelle-Orléans utilisait un logiciel de police prédictive de Palantir pour décider où envoyer des agents. Cette situation a mis en...

Cadre SAIL : La nouvelle référence en sécurité pour l’IA

Pillar Security a codifié un cadre de sécurité AI qui représente une avancée significative dans les efforts de l'industrie pour assurer des opérations sécurisées pour l'IA. Ce cadre, connu sous le nom...

Gouvernance de l’IA : Tokio Marine fixe les règles du jeu

Tokio Marine Holdings a introduit un cadre de gouvernance de l'IA pour guider le développement et l'utilisation de l'intelligence artificielle au sein de ses entreprises. La politique met l'accent sur...

L’essor de l’IA clandestine et la nécessité d’une gouvernance agile

L'intelligence artificielle générative (GenAI) est déjà profondément intégrée dans les entreprises, souvent sans approbation ni contrôle formel. Cela a conduit à ce que l'on appelle l'IA de l'ombre...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...