Cosa le aziende devono sapere: la legge sull’IA del Colorado si discosta dall’approccio federale all’impatto disparato
La scorsa settimana, i legislatori del Colorado hanno tenuto una sessione speciale culminata nella decisione di rinviare l’implementazione della Legge sull’Intelligenza Artificiale del Colorado (CAIA) fino al 30 giugno 2026, estendendo il termine oltre la data di partenza originale di febbraio 2026. Questo rinvio offre alle aziende una breve finestra per prepararsi, ma la legge rimane in vigore, richiedendo alle aziende di costruire programmi di governance e di eseguire regolari valutazioni di impatto sui sistemi di IA ad alto rischio.
Con la CAIA ancora prevista per entrare in vigore l’anno prossimo, emergono due approcci molto diversi alla responsabilità dell’IA. A livello federale, il Decreto Esecutivo 14281 ordina alle agenzie di abbandonare l’analisi dell’impatto disparato e limitare la responsabilità alla discriminazione intenzionale. Come prima regolamentazione completa dell’IA a livello statale, la CAIA rappresenta un approccio completamente diverso, rendendo le aziende responsabili per gli impatti disparati anche quando non ci sono prove di intenzione di discriminare.
CAIA: Responsabilità per Discriminazione Involontaria
La CAIA stabilisce la responsabilità sia per gli sviluppatori che per i distributori dell’IA se i loro sistemi producono risultati discriminatori, anche senza intenzione. La legge definisce la discriminazione algoritmica per includere gli impatti disparati causati dall’IA nelle decisioni rilevanti, e classifica come “ad alto rischio” quei sistemi che influenzano decisioni in settori come occupazione, abitazione, credito, istruzione, sanità, assicurazione, servizi legali e servizi pubblici essenziali.
Il Ruolo delle Valutazioni di Impatto Sotto la CAIA
Le valutazioni di impatto sono un componente centrale dei nuovi requisiti normativi per l’IA nello stato. I distributori di questi sistemi di IA ad alto rischio devono completare una valutazione di impatto prima dell’uso del sistema, ripetere la valutazione almeno annualmente e condurne una nuova entro 90 giorni da qualsiasi modifica sostanziale, come una riqualificazione del modello o un cambiamento significativo negli input o output.
Ogni valutazione di impatto deve includere:
- Una descrizione dello scopo del sistema, dell’uso previsto e del contesto di distribuzione;
- Le categorie di dati di input e la natura degli output del sistema;
- Una panoramica delle categorie di dati utilizzate per personalizzare o riqualificare il sistema;
- I parametri di performance utilizzati per valutare accuratezza e equità, insieme alle limitazioni note;
- Un’analisi dei potenziali rischi di discriminazione algoritmica;
- I passi intrapresi per mitigare tali rischi;
- Le misure di trasparenza e supervisione in atto, inclusa la possibilità che i consumatori siano informati dell’uso dell’IA;
- Le procedure di monitoraggio post-distribuzione per individuare problemi mentre il sistema opera.
Le valutazioni di impatto devono essere documentate e conservate per almeno tre anni. Come accennato, queste valutazioni creano un obbligo continuo per le aziende di testare e validare continuamente l’equità dei loro sistemi per prevenire impatti disparati.
Le Safe Harbor e l’Applicazione della CAIA
La CAIA fornisce una forma di safe harbor per le aziende che soddisfano i suoi requisiti. Le aziende che mantengono un programma di gestione dei rischi e completano le valutazioni di impatto richieste ricevono una presunzione di conformità. Inoltre, è disponibile una difesa affermativa se viene scoperta e risolta una violazione mentre l’azienda segue un quadro di rischio riconosciuto.
L’autorità di applicazione spetta al Procureur Général del Colorado, e i distributori devono notificare il Procureur entro 90 giorni dalla scoperta di discriminazione algoritmica. L’effetto è che, sebbene la responsabilità sotto la CAIA si estenda alla discriminazione involontaria, le aziende che eseguono e documentano valutazioni e programmi di governance robusti avranno significative protezioni legali se si verificano problemi.
Approccio Federale: Responsabilità Solo per Discriminazione Intenzionale
Ad aprile 2025, il presidente Trump ha emesso il Decreto Esecutivo 14281, intitolato “Ripristinare l’uguaglianza di opportunità e merito”. L’ordine indica alle agenzie federali di abbandonare l’analisi dell’impatto disparato nella redazione e nell’applicazione delle norme. Sotto questo approccio, la responsabilità è limitata alla discriminazione intenzionale. I risultati disparati senza intenzione non sono perseguibili, e agenzie come l’EEOC, HUD e CFPB non richiederanno più o non si aspetteranno test o documentazione per l’impatto disparato.
Per le aziende, questo cambiamento riduce i carichi di conformità associati alla supervisione federale. Le agenzie sono meno propense a indagare sui sistemi di IA basandosi esclusivamente sui risultati che producono. Sebbene ciò possa limitare il rischio di responsabilità quando si distribuisce l’IA, il ritiro federale non elimina del tutto il rischio. I privati possono comunque perseguire richieste di impatto disparato ai sensi di statuti federali come il Title VII del Civil Rights Act o il Fair Housing Act. L’applicazione a livello statale sotto la CAIA e leggi simili continuerà indipendentemente dalla politica federale.
Implicazioni Pratiche della Divergenza tra Statale e Federale
Il Colorado ha legato la responsabilità all’impatto disparato e ha reso le valutazioni di impatto ricorrenti il fulcro della conformità. Il governo federale ha preso la direzione opposta, abbandonando l’analisi dell’impatto disparato e limitando la responsabilità alla discriminazione intenzionale. Il risultato è un panorama normativo diviso. Le aziende che operano a livello nazionale dovranno riconciliare questi due sistemi: una responsabilità statale espansiva costruita attorno alle valutazioni di impatto e una ridotta supervisione federale.
Per le aziende, la divergenza crea un ambiente di conformità a due binari. I regolatori federali segnalano che le aziende non devono testare o documentare impatti disparati, mentre il Colorado richiede valutazioni continue progettate per scoprire e mitigare tali impatti. Le aziende che si concentrano esclusivamente sugli standard federali rischiano responsabilità in Colorado e in altri stati che potrebbero seguire il suo esempio. Al contrario, le aziende che strutturano i programmi di governance attorno agli standard più elevati della CAIA (inclusi valutazioni annuali, divulgazioni ai consumatori e protocolli di reporting) saranno posizionate per soddisfare entrambi i regimi.
È importante riconoscere che la CAIA non impone solo obblighi. La CAIA costruisce anche protezioni di safe harbor per quelle aziende che si conformano. Mantenendo programmi di gestione dei rischi, eseguendo valutazioni di impatto regolari e documentando i passi di mitigazione, le aziende guadagnano accesso a safe harbor sotto forma di una presunzione di conformità e una difesa affermativa se scoprono e risolvono problemi.
Conclusione
Le aziende ora affrontano due approcci nettamente diversi alla regolamentazione dell’IA. A livello statale, le aziende possono essere ritenute responsabili per discriminazione involontaria a meno che non si conformino proattivamente ai requisiti della CAIA, in particolare conducendo valutazioni di impatto dettagliate e ricorrenti. A livello federale, la responsabilità è limitata alla discriminazione intenzionale, con l’analisi dell’impatto disparato abbandonata come standard normativo in molte circostanze.
La CAIA chiarisce anche che le aziende hanno un percorso per proteggersi. Mantenendo programmi di gestione dei rischi, eseguendo regolarmente valutazioni di impatto e documentando i passi di mitigazione, le aziende ottengono accesso a safe harbor sotto forma di una presunzione di conformità e di una difesa affermativa se scoprono e risolvono problemi.
Con sempre più stati che considerano l’adozione di quadri normativi simili alla CAIA, è probabile che il mosaico si espanda. Le aziende che si impegnano a progettare programmi di gestione dei rischi, eseguire valutazioni di impatto approfondite e calibrare le divulgazioni saranno le meglio posizionate non solo per navigare in questi sistemi divergenti, ma anche per sfruttare appieno le protezioni che la CAIA fornisce.