Limitazioni dell’Autorità di Prevenzione della FTC sull’IA

L’autorità di preemption della FTC sull’IA è limitata

È possibile che l’amministrazione Trump preempti le leggi statali sulla protezione dei consumatori che regolano l’IA? La Federal Trade Commission (FTC) tenterà presto di farlo, ma la sua autorità a preemptare le leggi statali è limitata.

Lo scorso dicembre, il Presidente ha emesso un Ordine Esecutivo (OE) intitolato “Garantire un Quadro Politico Nazionale per l’Intelligenza Artificiale”. L’OE incarica la FTC di emettere una dichiarazione politica che spiega le circostanze in cui le leggi statali che richiedono modifiche agli output veritieri dei modelli di IA sono precluse dal divieto della FTC di impegnarsi in atti o pratiche ingannevoli che influenzano il commercio. L’agenzia ha tempo fino all’11 marzo per emettere la dichiarazione.

Normativa e definizioni

La Sezione 5 della FTC vieta atti o pratiche ingannevoli nel commercio. L’OE si concentra sull’inganno, definito come una falsa rappresentazione, omissione o altra pratica che inganna un consumatore che agisce ragionevolmente nelle circostanze, a danno del consumatore. Ad esempio, la pubblicità ingannevole rappresenta in modo falso la qualità o l’utilità di un prodotto, ingannando i consumatori.

L’OE afferma che alcuni stati hanno promulgato leggi che “richiedono alle entità di incorporare pregiudizi ideologici nei modelli di IA”. Questo segue un ordine precedente che vieta il cosiddetto “IA sveglia” dal governo federale, cioè modelli con “agende sociali” integrate che “distorcono la qualità e l’accuratezza dell’output”. Di conseguenza, il nuovo ordine afferma che è intrinsecamente ingannevole per le leggi statali sull’IA costringere le aziende a formare i loro modelli per mentire o ingannare gli utenti riguardo a temi politicizzati.

Ironia della sorte, l’OE stesso è ingannevole: non ci sono leggi attualmente in vigore. Le lamentele riguardo all’IA sveglia riflettono decisioni di formazione effettuate dalle aziende di IA stesse, non leggi statali. Il Primo Emendamento protegge tali scelte di design, se fatte indipendentemente dal governo, sia dalle regolamentazioni statali che federali.

Ostacoli alla preemption

Qualsiasi tentativo di preemption deve superare diversi ostacoli. Il primo è il federalismo. La dottrina della preemption federale deriva dalla Clausola di Supremazia della Costituzione degli Stati Uniti, che stabilisce che la legge federale è “la legge suprema del paese”. Di conseguenza, la legge federale preclude le leggi statali conflittuali.

Il governo federale può preemptare la legge statale in diversi modi. Il più semplice è che una legge o una regolazione federale contenga un linguaggio esplicito di preemption. Il governo federale può anche preemptare implicitamente la legge statale promulgando una legge federale che occupa un intero campo di regolazione, come la sicurezza nucleare.

Tuttavia, la Sezione 5 della FTC non lo fa: essa né preclude esplicitamente la legge statale né occupa l’intero campo della regolazione della protezione dei consumatori. Al contrario, ogni stato ha le proprie leggi sulla protezione dei consumatori, e la FTC collabora frequentemente con gli stati per l’applicazione.

Questo lascia alla FTC solo un’opzione: la preemption per conflitto. La legge federale preclude la legge statale quando è impossibile conformarsi a entrambe. La Sezione 5 vieta “atti o pratiche ingannevoli nel commercio”. In teoria, una legge statale che richiedesse alle aziende di ingannare i consumatori confliggerebbe con la Sezione 5 poiché sarebbe impossibile astenersi e impegnarsi in pratiche commerciali ingannevoli.

Tuttavia, i tribunali sono poco propensi ad accettare la Sezione 5 come base per la preemption per conflitto. Quando valutano le pretese di preemption, la Corte Suprema segue una “presunzione contro la preemption”, secondo cui la legge federale non supera la legge statale a meno che non fosse chiaro e manifesto il fine del Congresso. La Sezione 5, in contrasto, “è stata deliberatamente formulata in termini generali” e non fornisce alcuna regola prescrittiva specifica.

Processo di regolamentazione

Per preemptare l’autorità statale sull’IA, la FTC è obbligata a emettere una regola e deve quindi conformarsi sia all’Administrative Procedure Act che alle proprie procedure di regolamentazione elevate ai sensi del Magnuson-Moss Act. Queste procedure richiedono un preavviso di proposta di regolamentazione che precede un avviso di proposta di regolamentazione, ciascuno accompagnato da adeguate opportunità di commento pubblico. Successivamente, l’agenzia emette un’analisi regolamentare preliminare, che porta a un’analisi regolamentare finale, probabilmente concludendosi con audizioni su questioni controverse di fatto materiale. La FTC deve anche dimostrare che la condotta ingannevole in questione è “prevalente” emettendo ordini di cessazione e desistenza o indicando “informazioni” che “indicano un modello diffuso”. Il processo potrebbe richiedere diversi anni.

Qualsiasi regolamentazione intrapresa ai sensi dell’OE sarebbe tenuta a specificare come le leggi statali sull’IA potrebbero confliggere con la Sezione 5. L’OE stesso menziona solo un esempio: la Legge sull’Intelligenza Artificiale del Colorado, che non è ancora entrata in vigore, e i cui impatti pratici sono poco chiari.

Secondo l’OE, il divieto del Colorado sulla “discriminazione algoritmica” potrebbe “costringere i modelli di IA a produrre risultati falsi per evitare un ‘trattamento o impatto differenziale’ su gruppi protetti”. Tuttavia, quella disposizione mira a prevenire che l’IA riproduca pregiudizi esistenti nei set di dati di formazione, come le “decisioni storiche su assunzioni o prestiti”. Il Colorado probabilmente sosterrà che la sua legge, lungi dall’obbligare a “risultati falsi”, richiede invece ai modelli di evitare di riprodurre distorsioni esistenti. Se tali leggi possano eventualmente portare a inganni per i consumatori è difficile rispondere in astratto. La FTC dovrebbe identificare e mirare a una regola per affrontare casi chiari di conflitto.

Criticamente, la Sezione 5 vieta l’inganno solo “nel commercio o che influisce sul commercio”. La FTC controlla le pratiche commerciali, non la pubblicazione. Ad esempio, sarebbe ingannevole per l’IA generativa includere annunci nei suoi output senza rivelare che il contenuto aggiunto è pubblicità, ingannando potenzialmente gli utenti su questioni commerciali. Tuttavia, l’OE incarica la FTC di pesare su questioni al di là del commercio, come il “pregiudizio ideologico” e gli “output veritieri”. Proprio come i giornali pubblicano risposte basate su opinioni a domande dei lettori, gli output dei modelli non commerciali sono spesso soggettivi. Questi output non sono pratiche commerciali e quindi rientrano al di fuori dell’autorità di inganno della FTC.

Conclusione

In definitiva, la capacità della FTC di preemptare le leggi statali sull’IA è limitata, richiedendo un lungo e complesso processo di regolamentazione. Una semplice dichiarazione politica non sarà sufficiente.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...