À l’intérieur de la controverse sur la loi de l’IA du Colorado
La loi du Colorado vise à empêcher que l’IA soit utilisée comme un outil de discrimination. Elle est destinée à s’appliquer aux systèmes d’IA « à haut risque » qui prennent ou aident à prendre des décisions importantes.
Dès le départ, le gouverneur a souhaité que les législateurs mettent à jour la loi avant sa mise en œuvre afin d’éviter un cadre réglementaire trop contraignant. Cependant, les tentatives de révision lors d’une session spéciale en août ont échoué. Un point de friction majeur était le niveau de responsabilité que les développeurs et déployeurs d’IA devraient avoir si les décisions de l’IA s’avéraient discriminatoires.
Faute d’accord, les législateurs ont retardé la mise en œuvre de la loi. Ils essaieront à nouveau durant leur session régulière en janvier.
Contexte de la loi sur l’IA du Colorado
Le Colorado a adopté une législation révolutionnaire sur l’intelligence artificielle l’année dernière, mais sa mise en œuvre s’est révélée difficile.
La loi sur l’IA du Colorado établit des protections complètes pour les consommateurs, destinées à protéger le public contre la discrimination lors de l’utilisation de l’IA pour des décisions relatives à la santé, à l’emploi ou d’autres domaines importants. Cependant, la loi n’est pas encore entrée en vigueur et sa date de mise en œuvre recule.
Des entreprises, et même le gouverneur Jared Polis, craignaient que la nouvelle loi soit trop contraignante et freine les innovations en matière d’IA. Polis avait signé le projet de loi original en sachant qu’il serait révisé avant sa mise en œuvre en 2026.
Polis a déclaré que la loi « crée un régime de conformité complexe » pour les développeurs et déployeurs d’IA, notamment car elle rend les entreprises responsables de la discrimination involontaire, et qu’elle pourrait réduire l’innovation en rendant plus difficile de faire des affaires dans le Colorado que dans d’autres États.
Les tentatives de révision et leurs échecs
Polis a convoqué une session spéciale pour amender la loi en août, et les législateurs se sont empressés de rédiger une révision qui conviendrait à tous : entreprises technologiques, défenseurs des droits des consommateurs et entreprises utilisant des outils d’IA. Cependant, ce travail a échoué, les parties n’ayant pas réussi à s’accorder sur la façon d’attribuer la responsabilité en cas de discrimination due à l’IA.
Finalement, ils ont simplement décidé de reporter la date d’entrée en vigueur de la loi originale de quatre mois. Actuellement, la loi sur l’IA doit entrer en vigueur en juin 2026, mais les législateurs se réuniront à nouveau en janvier pour essayer de faire des ajustements.
Alors que la loi sur l’IA est saluée par certaines organisations technologiques pour le temps supplémentaire qu’elle accorde pour peaufiner la législation, les défenseurs des consommateurs affirment que les résidents restent non protégés encore plus longtemps.
Les implications de la loi
La loi cible les systèmes de prise de décision automatisée utilisés pour des « décisions importantes » telles que qui embaucher, à qui accorder des prêts ou à qui fournir des services gouvernementaux, des soins de santé, de l’éducation, de l’assurance ou du logement. Elle vise à protéger les consommateurs contre la discrimination ou le biais, qu’il s’agisse d’une intention des créateurs ou utilisateurs de ces systèmes.
Par exemple, Amazon a découvert en 2018 que son outil de recrutement automatisé avait appris à privilégier les hommes par rapport aux femmes. Si cet outil influençait de manière significative les décisions d’embauche, la loi aurait tenu Amazon responsable de sa pratique discriminatoire involontaire.
En tant que déployeur de l’outil de recrutement automatisé, l’entreprise aurait été tenue d’informer les candidats que l’IA était utilisée et d’autoriser les candidats rejetés à apprendre quelles données avaient été prises en compte, ainsi qu’à corriger toute donnée inexacte, contester la décision et demander un examen humain.
Les défis à surmonter
Un point majeur de blocage a été de parvenir à un accord sur ce qui compte comme un « système de prise de décision automatisée » devant être couvert par la loi. Les entreprises ont également exprimé des préoccupations concernant la clarté et la portée de la loi, la jugeant trop vague et contraignante.
Les efforts pour réviser la loi durant la session régulière ont échoué, et la pression pour parvenir à un consensus s’est intensifiée lors de la session spéciale d’août 2025. Parmi plusieurs propositions, deux projets de loi semblaient les plus viables, mais aucun d’eux n’a abouti.
À l’avenir
Le report laisse les consommateurs sans protection contre d’éventuels dommages causés par des systèmes déjà utilisés. Certains craignent que plus le temps passe, plus il sera difficile d’établir des protections pour les consommateurs, car entre-temps, l’IA deviendra plus omniprésente et les entreprises technologiques opposées à la réglementation deviendront plus puissantes.
Il s’agit d’un moment crucial. Si aucune action n’est entreprise maintenant, il sera difficile de le faire à l’avenir.