Colorado s’apprête à réviser sa loi phare sur l’IA après les réactions de l’industrie
Les législateurs du Colorado se préparent à réviser l’une des premières lois complètes sur l’intelligence artificielle (IA) aux États-Unis, suite à des mois de tensions entre les régulateurs, les défenseurs des consommateurs et l’industrie technologique.
Raisons de la révision de la loi
Lorsque le Colorado a adopté sa loi sur l’IA en 2024, elle a attiré l’attention nationale pour son approche précoce et complète. La loi se concentrait sur les systèmes d’IA « à haut risque », tels que :
- Les candidatures à des emplois
- L’accès au logement
- Les décisions financières
- Les services gouvernementaux
Elle a introduit des exigences visant à prévenir la discrimination algorithmique et à accroître la responsabilité. Cependant, peu après, des entreprises ont exprimé leurs préoccupations. Les exigences étaient jugées trop larges, trop complexes et pouvaient considérablement augmenter le coût d’utilisation des systèmes d’IA. En réponse, l’État a retardé l’application de la loi et a formé un groupe de travail pour réviser l’approche.
Modifications proposées
Le cadre mis à jour reflète une tentative de trouver un terrain d’entente. Au lieu d’imposer une responsabilité stricte et unilatérale, la proposition introduit un modèle de responsabilité partagée. Les développeurs seraient tenus de :
- Divulguer le fonctionnement de leurs systèmes
- Fournir des informations sur les sources de données et leurs limites
Les organisations seraient attendues pour :
- Informer les individus lorsque l’IA est utilisée dans les décisions
- Utiliser un langage clair et simple lors de cette communication
Ceci constitue un changement par rapport à la structure originale, où la responsabilité était davantage centralisée.
Une nouvelle approche de la responsabilité
Une des modifications les plus importantes concerne la responsabilité. La loi originale soulevait des préoccupations car elle pouvait imposer une grande part de responsabilité à une seule partie, même lorsque plusieurs acteurs étaient impliqués dans le développement et l’utilisation d’un système d’IA. Le cadre révisé adopte une approche différente. La responsabilité serait maintenant attribuée en fonction des actions de chacun :
- Les développeurs seraient responsables de la manière dont les systèmes sont construits
- Les déployeurs seraient responsables de la manière dont ils sont utilisés
Cela reflète une vue plus réaliste du fonctionnement de l’IA dans la pratique.
Débat en cours : protection vs. praticité
Bien que ces révisions aient été apportées, l’issue reste incertaine. Certains législateurs ont déjà indiqué que la proposition n’est qu’un point de départ, et d’autres modifications sont probables au fur et à mesure de son avancement dans le processus législatif.
La tension plus large demeure :
- D’une part : Protection des consommateurs, prévention de la discrimination, augmentation de la transparence
- D’autre part : Coût de la conformité, impact sur l’innovation, capacité pratique à déployer des systèmes d’IA
Le Colorado tente maintenant de trouver un équilibre entre les deux.
Implications pratiques
Pour les organisations, la conclusion porte moins sur une loi spécifique que sur une direction générale. Les systèmes d’IA sont de plus en plus considérés comme d’autres processus commerciaux régulés. Cela signifie que les attentes concernant :
- La divulgation
- La documentation
- La responsabilité
- La surveillance
deviendront partie intégrante de l’évaluation de ces systèmes. Dans le même temps, les régulateurs continuent de travailler à la manière d’appliquer ces attentes d’une manière qui reste faisable.