Mise à jour de la Loi sur l’Intelligence Artificielle du Colorado (CAIA) : Un résumé des protections des consommateurs lors de l’interaction avec des systèmes d’intelligence artificielle
Lors de la session législative de 2024, l’Assemblée générale du Colorado a adopté le projet de loi sénatorial 24-205, connu sous le nom de Loi sur l’Intelligence Artificielle du Colorado (CAIA). Cette loi entrera en vigueur le 1er février 2026 et exige des développeurs et des déployeurs de systèmes d’IA à haut risque qu’ils protègent les résidents du Colorado (« consommateurs ») contre les risques de discrimination algorithmique. Il est à noter que la loi exige également que les développeurs ou déployeurs informent les consommateurs qu’ils interagissent avec un système d’IA.
Le gouverneur du Colorado, Jared Polis, avait néanmoins des préoccupations en 2024 et s’attendait à ce que les législateurs affinent les définitions clés et mettent à jour la structure de conformité avant la date d’entrée en vigueur en février 2026.
Contexte
Un système d’IA « à haut risque » est défini comme tout système basé sur une machine qui infère des résultats à partir de données d’entrée et a un effet légal ou similaire sur la fourniture, le refus, le coût ou les conditions d’un produit ou service. La loi identifie divers secteurs impliquant des décisions conséquentes, tels que les décisions liées à la santé, à l’emploi, aux finances, au logement, à l’assurance ou aux services juridiques.
De plus, la CAIA comporte de nombreuses exceptions pour les technologies qui effectuent des tâches précises ou certaines fonctions, telles que la cybersécurité, le stockage de données et les chatbots.
En dehors des scénarios d’utilisation, la CAIA impose également aux développeurs de systèmes d’IA le devoir de prévenir la discrimination algorithmique et de protéger les consommateurs contre tout risque connu ou prévisible découlant de l’utilisation du système d’IA. Un développeur est celui qui développe ou modifie un système d’IA utilisé dans l’État du Colorado. Parmi d’autres obligations, un développeur doit rendre disponibles la documentation pour les utilisations prévues et les utilisations potentiellement nuisibles du système d’IA à haut risque.
Droits à la vie privée et droits des consommateurs
Les consommateurs ont le droit de refuser le traitement de données liées aux décisions basées sur l’IA et peuvent faire appel de toute décision fondée sur l’IA. Cette disposition d’opt-out peut influencer d’autres décisions automatisées liées au résident du Colorado et le traitement de la profilage des données personnelles de ce consommateur. Le déployeur doit également informer le consommateur lorsqu’un système d’IA à haut risque a été utilisé dans le processus décisionnel qui conduit à une décision défavorable pour le consommateur.
Exemptions
La CAIA contient diverses exemptions, y compris pour les entités opérant sous d’autres régimes réglementaires (par exemple, les assureurs, les banques et les entités couvertes par la HIPAA) ou pour l’utilisation de certaines technologies approuvées. Par exemple, les entités couvertes par la HIPAA sont exemptées dans la mesure où elles fournissent des recommandations de santé générées par un système d’IA qui nécessitent que l’entité couverte par la HIPAA prenne des mesures pour mettre en œuvre la recommandation.
Les petites entreprises sont exemptées dans la mesure où elles emploient moins de 50 employés à temps plein et ne forment pas le système avec leurs propres données. Ainsi, les déployeurs doivent analyser attentivement les exemptions disponibles pour garantir que leurs activités s’inscrivent bien dans les recommandations.
Mises à jour
Comme le souligne le récent rapport du Colorado AI Impact Task Force, le rapport encourage des changements supplémentaires à la CAIA avant son entrée en vigueur en février 2026. Les préoccupations actuelles portent sur les ambiguïtés, les charges de conformité et les diverses préoccupations des parties prenantes. Le gouverneur est préoccupé par la possibilité que les garde-fous inhibent l’innovation et les progrès de l’IA dans l’État.
Le Colorado AI Impact Task Force note qu’il existe un consensus pour affiner les exigences en matière de documentation et de notification. Cependant, il y a moins de consensus sur la manière d’ajuster la définition des « décisions conséquentes ». La révision des exemptions par rapport à la définition des systèmes couverts est également un changement souhaité à la fois par l’industrie et le public.
Conclusion
Étant donné que la plupart des parties prenantes reconnaissent que des changements sont nécessaires, toute entreprise impactée par la CAIA devrait continuer à suivre les développements du processus législatif pour d’éventuels changements qui pourraient avoir un impact considérable sur la portée et les exigences de la Loi sur l’Intelligence Artificielle du Colorado.
Les entreprises devraient évaluer si elles, ou leurs fournisseurs, utilisent un système d’IA qui pourrait être considéré comme à haut risque en vertu de la CAIA. Certaines recommandations incluent :
- Évaluer l’utilisation de l’IA et considérer si cet usage est conforme à la définition de la CAIA, y compris si des exemptions sont disponibles
- Effectuer une évaluation des risques liés à l’IA conformément à la Loi sur l’Intelligence Artificielle du Colorado
- Développer un plan de conformité à l’IA qui soit conforme aux protections des consommateurs de la CAIA concernant les processus de notification et d’appel
- Continuer à suivre les mises à jour de la CAIA
- Évaluer les contrats avec les fournisseurs d’IA pour garantir que la documentation nécessaire est fournie par le développeur ou le déployeur
Le Colorado a pris les devants en tant que l’un des premiers États de la nation à adopter des lois sur l’IA. D’autres États devraient probablement se tourner vers les progrès du Colorado et adopter des législations similaires ou apporter des améliorations là où cela est nécessaire. Par conséquent, suivre la CAIA et sa mise en œuvre est d’une grande importance dans le domaine émergent des systèmes d’IA axés sur les consommateurs qui impactent des décisions conséquentes dans la santé, le bien-être financier, l’éducation, le logement ou l’emploi des consommateurs.