Colorado : Nouvelle législation sur l’IA visant la transparence
Le Colorado prévoit de réviser sa loi de 2024 sur les biais dans les décisions liées à l’IA pour supprimer les exigences d’audit et se concentrer sur les avis de transparence, dans le cadre législatif soutenu par le gouverneur.
Soutien unanime et modifications proposées
Le gouverneur a déclaré que la proposition avait le soutien unanime d’un groupe d’experts en technologie et de défenseurs des consommateurs réunis l’année dernière pour étudier la législation et formuler des recommandations.
Impact sur les entreprises
Les entreprises utilisant des outils d’intelligence artificielle pour le recrutement surveillent de près les modifications potentielles apportées à la loi, considérée comme la réglementation sur les biais de l’IA la plus étendue de son genre lors de sa première adoption.
Des préoccupations ont été soulevées par certains responsables politiques concernant une réglementation excessive des technologies de l’IA, notamment par des appels à limiter l’accès aux fonds fédéraux et à contester certaines lois étatiques en justice.
Proposition et exigences de transparence
La législature de l’État a décidé de retarder la révision de la loi lors d’une session spéciale en 2025, reportant sa date d’entrée en vigueur au 30 juin 2026. Si les modifications proposées sont adoptées, cette date pourrait être repoussée au 1er janvier 2027.
La proposition du gouverneur supprimerait les exigences détaillées pour les audits de biais, mais conserverait une version des exigences de transparence. Par exemple, les employeurs devront informer les candidats à l’emploi s’ils utilisent des outils d’IA pour les décisions de recrutement.
Les candidats rejetés auraient droit à une notification supplémentaire concernant les types de données prises en compte par les outils d’IA dans leur recommandation, ainsi qu’à la possibilité de corriger des informations personnelles inexactes et de demander un examen humain de la décision, dans la mesure du raisonnable sur le plan commercial.
Des exigences similaires s’appliqueraient aux organisations utilisant des outils automatisés pour assister dans des décisions importantes telles que le logement, le crédit, l’éducation, et d’autres décisions cruciales.