Nuove Strategie della FTC per l’Intelligenza Artificiale

La FTC entra in un nuovo capitolo nel suo approccio all’intelligenza artificiale e all’applicazione della legge

Il 4 febbraio 2026, in linea con la priorità dell’Amministrazione Trump nello sviluppo e nell’investimento nell’intelligenza artificiale (AI) negli Stati Uniti, la Commissione Federale del Commercio (FTC) ha tracciato una nuova direzione per i suoi sforzi di applicazione riguardanti l’AI, includendo in alcuni casi l’annullamento di precedenti ordini di consenso. In particolare, il 22 dicembre 2025, la FTC ha annullato un ordine finale contro un’azienda di AI, in parte perché l’ordine “gravava eccessivamente” l’innovazione nell’AI.

La Commissione aveva precedentemente accusato l’azienda di scrittura di recensioni di clienti di poter assistere gli utenti nel commettere frodi. Si sosteneva che la tecnologia consentisse agli utenti di generare migliaia di recensioni di clienti che apparivano autentiche e che potevano essere utilizzate per ingannare i consumatori. La FTC ha dichiarato che l’annullamento dell’ordine riguardante l’azienda seguiva il Piano d’Azione dell’Amministrazione Trump per l’AI, ma ha ribadito che continuerà a perseguire l’applicazione contro le aziende che “ingannano i consumatori riguardo alle capacità della loro AI generativa”.

Un approccio duale alla regolamentazione dell’AI

Dopo l’ordine riguardante l’azienda, la FTC sembra aver adottato un approccio duale alla regolamentazione dell’AI: una riduzione e, in alcuni casi, la revoca dell’applicazione riguardante le capacità effettive dei prodotti AI, anche in situazioni in cui l’AI potrebbe essere utilizzata per ingannare i consumatori, ma mantenendo l’applicazione riguardante dichiarazioni false fatte dalle aziende sulle capacità dei loro prodotti AI.

Questo approccio è coerente con la regolamentazione della pubblicità ingannevole ai sensi della Sezione 5 del Federal Trade Commission Act. Le recenti azioni di enforcement della FTC sembrano confermare questo approccio e suggeriscono come la Commissione regolerà le preoccupazioni dei consumatori riguardo all’AI nel corso del resto della seconda Amministrazione Trump.

Il Piano d’Azione sull’AI dell’Amministrazione Trump

Nei primi giorni del suo secondo mandato, il Presidente ha annunciato che la sua amministrazione avrebbe promosso lo sviluppo dell’innovazione nell’AI in vari modi, incluso il ripristino della regolamentazione sull’AI. È stato emesso un ordine esecutivo nel gennaio 2025 che stabiliva che “[è] politica degli Stati Uniti sostenere e migliorare il dominio globale dell’AI dell’America”; ordinando alle agenzie federali di “identificare” e poi “sospendere, rivedere o annullare” qualsiasi azione che ostacolasse l’innovazione nell’AI.

Il Piano d’Azione sull’AI del luglio 2025 ha iniziato con un comando alle agenzie federali di ridurre l’applicazione contro le aziende di AI, specificando che la FTC dovesse (1) rivedere le indagini in corso “per garantire che non avanzino teorie di responsabilità che gravano eccessivamente sull’innovazione dell’AI” e (2) rivedere “tutti gli ordini finali della FTC, decreti di consenso e ingiunzioni, e, dove appropriato, cercare di modificare o annullare qualsiasi che gravasse eccessivamente sull’innovazione dell’AI”.

La FTC ha limitato l’applicazione contro le aziende di AI

La FTC attuale sembra aver in gran parte cessato le azioni di enforcement contro le aziende di AI per le capacità dei loro prodotti. Non sembrano esserci nuove azioni di enforcement di questo tipo e, in linea con il Piano d’Azione dell’Amministrazione, la FTC ha preso il passo inconsueto di riaprire e annullare il suo ordine di consenso finale contro l’azienda, cosa che sembra essere stata fatta solo una o due volte negli ultimi vent’anni.

La Commissione aveva presentato una denuncia nel settembre 2024 contro l’azienda, accusando il servizio di generazione di recensioni di clienti di produrre recensioni dettagliate che contenevano informazioni specifiche, spesso materiali, non correlate all’input dell’utente. Quando gli utenti pubblicavano le recensioni generate dall’AI, a volte in migliaia, sia i consumatori che si affidavano alle recensioni sia i concorrenti onesti che ne subivano danno ne risentivano.

La FTC ha sostenuto che il servizio forniva i mezzi e gli strumenti per ingannare i consumatori ed era una pratica sleale perché “offriva un servizio destinato a generare rapidamente contenuti illimitati per le recensioni dei consumatori e creava contenuti scritti falsi e ingannevoli per le recensioni dei consumatori”.

La Commissione ha successivamente annullato l’ordine di consenso finale, seguendo il dissenso del Presidente della FTC, che ha affermato che la denuncia originale non aveva presentato una richiesta ai sensi della Sezione 5 del FTC Act e quindi non era nel pubblico interesse.

Rischi di affermazioni aiutate dall’AI

Tuttavia, la FTC non ha completamente abbandonato la regolazione dei prodotti AI. Piuttosto, sembra essere tornata alle basi della Sezione 5, spostando il suo focus di enforcement sulle dichiarazioni false riguardo alle offerte di AI di un’azienda. Quest’anno, la FTC ha avviato e risolto diverse azioni di enforcement ai sensi della Sezione 5 per pubblicità ingannevole riguardante le capacità dei prodotti AI.

Questo tipo di pubblicità ingannevole che gonfia in modo fuorviante le capacità di un prodotto è una frode classica ai sensi della Sezione 5 che la Commissione ha storicamente perseguito. Quest’anno, la FTC ha avviato e risolto diversi di questi casi di enforcement. Ad esempio, in aprile 2025, un’azienda ha accettato un accordo di un milione di dollari per accuse di aver rappresentato in modo errato la capacità dei suoi strumenti AI di rendere un sito web conforme alle linee guida di accessibilità.

Conclusione

Queste azioni della FTC segnalano che, sebbene il percorso di enforcement possa essere più ristretto, la Commissione non intende ignorare completamente le aziende e i prodotti AI. Piuttosto, si sta sviluppando un approccio duale all’applicazione della legge sull’AI. Anche se la Commissione sembra destinata a regolare la pubblicità ingannevole come ha sempre fatto, le aziende che sviluppano prodotti AI potrebbero essere meno al centro dell’attenzione.

Le aziende che offrono prodotti AI dovrebbero continuare a monitorare quest’area in continua evoluzione e rivedere attentamente le affermazioni che fanno riguardo alle loro capacità AI.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...