Proposta di Legge del Senato: Cambiamenti Sostanziali sulla Responsabilità dell’IA, Sezione 230 e Regolamentazione Statale
Il Trump America AI Act è una bozza di discussione che impone responsabilità e un dovere di diligenza agli sviluppatori e ai distributori di intelligenza artificiale (IA) per prevenire danni prevedibili, spostando la regolamentazione dell’IA verso un quadro di responsabilità dei prodotti.
Principali Aspetti della Proposta
La legge prevede diverse disposizioni che precludono alcune regolamentazioni statali sull’IA, pur consentendo esplicitamente agli stati di emanare leggi con maggiori protezioni rispetto a quelle offerte dalla legge stessa. Nonostante l’obiettivo dichiarato di stabilire un unico quadro normativo federale, la clausola di salvaguardia generale della bozza potrebbe lasciare ampio spazio per leggi statali che riguardano la protezione dei consumatori, audit per pregiudizi, trasparenza e responsabilità algoritmica.
La bozza prevede l’abrogazione della Sezione 230 due anni dopo la sua approvazione, modificando significativamente l’esposizione al contenzioso delle piattaforme e dell’IA. Le reazioni iniziali suggeriscono che molte leggi statali relative a responsabilità algoritmica, audit per pregiudizi e trasparenza potrebbero rimanere valide sotto la clausola di salvaguardia generale.
Responsabilità Stabilite
Il progetto di legge stabilisce nuovi e ampi quadri di responsabilità per gli sviluppatori e i distributori di IA. Gli sviluppatori sarebbero soggetti a responsabilità per negligenza, responsabilità rigorosa e rivendicazioni basate su garanzie per i sistemi IA che causano danni, inclusi danni materiali, lesioni fisiche, danni finanziari, lesioni reputazionali o angoscia psicologica. Quando il design di un prodotto è “manifattamente irragionevole”, i richiedenti non dovrebbero dimostrare l’esistenza di un design alternativo ragionevole.
I distributori che modificano sostanzialmente un prodotto o lo utilizzano in modo improprio sarebbero trattati come sviluppatori ai fini della responsabilità. La responsabilità congiunta si applicherebbe quando entrambe le parti contribuiscono a un danno presunto. Le disposizioni contrattuali che rinunciano ai diritti o limitano irragionevolmente la responsabilità non sarebbero applicabili.
Prevenzione e Protezioni
Il progetto di legge imporrebbe un dovere di diligenza alle piattaforme coperte per prevenire danni prevedibili ai minori, inclusi disturbi alimentari, comportamenti suicidi e sfruttamento sessuale. Ulteriori protezioni includerebbero limiti di comunicazione, protezioni contro l’esposizione ai dati e impostazioni di opt-out per caratteristiche di design addictive.
Le disposizioni relative ai “creatori” stabilirebbero un diritto di proprietà federale sulla voce e l’immagine visiva di ciascun individuo, trasferibile e licenziabile. Inoltre, il progetto di legge escluderebbe l’addestramento dell’IA su opere protette da copyright dalla giusta utilizzazione e stabilirebbe la responsabilità per le opere derivate generate dall’IA.
Iniziative di Innovazione e Audit
Il progetto di legge incaricherebbe l’Istituto Nazionale degli Standard e della Tecnologia di stabilire un Centro per gli Standard e l’Innovazione dell’IA, sviluppando pratiche migliori e strumenti di rilevamento contenuti sintetici. I fornitori di sistemi IA ad alto rischio sarebbero tenuti a sottoporsi a audit annuali indipendenti per rilevare pregiudizi e discriminazione di punti di vista.
Conclusione
Questa proposta di legge rappresenta un approccio federale che combina politiche di innovazione con disposizioni aggressive su responsabilità, sicurezza dei minori, copyright e responsabilità delle piattaforme. Le aziende che sviluppano, distribuiscono o integrano l’IA dovrebbero valutare non solo l’esposizione a nuovi doveri di audit e trasparenza, ma anche ai potenziali cambiamenti nella Sezione 230 e nella responsabilità legata ai diritti delle opere generate dall’IA.