À l’intérieur de la controverse sur la loi de l’IA du Colorado

La loi du Colorado vise à empêcher que l’IA soit utilisée comme un outil de discrimination. Elle est destinée à s’appliquer aux systèmes d’IA « à haut risque » qui prennent ou aident à prendre des décisions importantes.

Dès le départ, le gouverneur a souhaité que les législateurs mettent à jour la loi avant sa mise en œuvre afin d’éviter un cadre réglementaire trop contraignant. Cependant, les tentatives de révision lors d’une session spéciale en août ont échoué. Un point de friction majeur était le niveau de responsabilité que les développeurs et déployeurs d’IA devraient avoir si les décisions de l’IA s’avéraient discriminatoires.

Faute d’accord, les législateurs ont retardé la mise en œuvre de la loi. Ils essaieront à nouveau durant leur session régulière en janvier.

Contexte de la loi sur l’IA du Colorado

Le Colorado a adopté une législation révolutionnaire sur l’intelligence artificielle l’année dernière, mais sa mise en œuvre s’est révélée difficile.

La loi sur l’IA du Colorado établit des protections complètes pour les consommateurs, destinées à protéger le public contre la discrimination lors de l’utilisation de l’IA pour des décisions relatives à la santé, à l’emploi ou d’autres domaines importants. Cependant, la loi n’est pas encore entrée en vigueur et sa date de mise en œuvre recule.

Des entreprises, et même le gouverneur Jared Polis, craignaient que la nouvelle loi soit trop contraignante et freine les innovations en matière d’IA. Polis avait signé le projet de loi original en sachant qu’il serait révisé avant sa mise en œuvre en 2026.

Polis a déclaré que la loi « crée un régime de conformité complexe » pour les développeurs et déployeurs d’IA, notamment car elle rend les entreprises responsables de la discrimination involontaire, et qu’elle pourrait réduire l’innovation en rendant plus difficile de faire des affaires dans le Colorado que dans d’autres États.

Les tentatives de révision et leurs échecs

Polis a convoqué une session spéciale pour amender la loi en août, et les législateurs se sont empressés de rédiger une révision qui conviendrait à tous : entreprises technologiques, défenseurs des droits des consommateurs et entreprises utilisant des outils d’IA. Cependant, ce travail a échoué, les parties n’ayant pas réussi à s’accorder sur la façon d’attribuer la responsabilité en cas de discrimination due à l’IA.

Finalement, ils ont simplement décidé de reporter la date d’entrée en vigueur de la loi originale de quatre mois. Actuellement, la loi sur l’IA doit entrer en vigueur en juin 2026, mais les législateurs se réuniront à nouveau en janvier pour essayer de faire des ajustements.

Alors que la loi sur l’IA est saluée par certaines organisations technologiques pour le temps supplémentaire qu’elle accorde pour peaufiner la législation, les défenseurs des consommateurs affirment que les résidents restent non protégés encore plus longtemps.

Les implications de la loi

La loi cible les systèmes de prise de décision automatisée utilisés pour des « décisions importantes » telles que qui embaucher, à qui accorder des prêts ou à qui fournir des services gouvernementaux, des soins de santé, de l’éducation, de l’assurance ou du logement. Elle vise à protéger les consommateurs contre la discrimination ou le biais, qu’il s’agisse d’une intention des créateurs ou utilisateurs de ces systèmes.

Par exemple, Amazon a découvert en 2018 que son outil de recrutement automatisé avait appris à privilégier les hommes par rapport aux femmes. Si cet outil influençait de manière significative les décisions d’embauche, la loi aurait tenu Amazon responsable de sa pratique discriminatoire involontaire.

En tant que déployeur de l’outil de recrutement automatisé, l’entreprise aurait été tenue d’informer les candidats que l’IA était utilisée et d’autoriser les candidats rejetés à apprendre quelles données avaient été prises en compte, ainsi qu’à corriger toute donnée inexacte, contester la décision et demander un examen humain.

Les défis à surmonter

Un point majeur de blocage a été de parvenir à un accord sur ce qui compte comme un « système de prise de décision automatisée » devant être couvert par la loi. Les entreprises ont également exprimé des préoccupations concernant la clarté et la portée de la loi, la jugeant trop vague et contraignante.

Les efforts pour réviser la loi durant la session régulière ont échoué, et la pression pour parvenir à un consensus s’est intensifiée lors de la session spéciale d’août 2025. Parmi plusieurs propositions, deux projets de loi semblaient les plus viables, mais aucun d’eux n’a abouti.

À l’avenir

Le report laisse les consommateurs sans protection contre d’éventuels dommages causés par des systèmes déjà utilisés. Certains craignent que plus le temps passe, plus il sera difficile d’établir des protections pour les consommateurs, car entre-temps, l’IA deviendra plus omniprésente et les entreprises technologiques opposées à la réglementation deviendront plus puissantes.

Il s’agit d’un moment crucial. Si aucune action n’est entreprise maintenant, il sera difficile de le faire à l’avenir.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...