Nuove Regole per la Sicurezza dell’Intelligenza Artificiale negli Appalti Federali

Commenti sulla proposta di clausola AI del GSA

Il 6 marzo 2026, l’Amministrazione dei Servizi Generali (GSA) ha proposto la clausola GSAR 552.239‑7001, “Protezione di base dei sistemi di intelligenza artificiale”, una clausola contrattuale senza precedenti volta a imporre requisiti specifici di salvaguardia per l’IA attraverso veicoli di approvvigionamento. La clausola è proposta per l’inclusione nei Contratti del Programma GSA attraverso il Refresh 31 del Multiple Award Schedule (MAS), segnando una deviazione dalle pratiche di acquisizione federale esistenti, poiché nessun’altra agenzia ha implementato una clausola di governance dell’IA comparabile e autonoma.

Invece di procedere attraverso il tradizionale processo di commento pubblico, il GSA ha emesso la clausola tramite il processo di commento del refresh del MAS, risultando in una scadenza compressa per il feedback degli stakeholder, con i commenti dovuti entro il 20 marzo 2026. Se adottata nella sua forma attuale, la clausola imporrebbe obblighi vincolanti contrattuali relativi allo sviluppo, al dispiegamento e alla gestione dei sistemi di intelligenza artificiale utilizzati o forniti nell’ambito di contratti federali.

Obiettivi e requisiti della clausola

La clausola GSAR 552.239-7001 è progettata per avanzare gli obiettivi federali enfatizzando il controllo, la trasparenza e la responsabilità dell’IA. Riflette la crescente preoccupazione all’interno del governo federale riguardo alla sicurezza dei dati, ai rischi della catena di approvvigionamento e alla natura opaca di molti sistemi commerciali di intelligenza artificiale. I contraenti che si avvalgono dell’IA — sia per l’analisi dei dati, la generazione di contenuti, l’automazione o il supporto decisionale — dovranno garantire che le loro pratiche siano allineate con queste priorità.

La clausola introduce obblighi di divulgazione, restrizioni significative all’uso dei dati e diritti di utilizzo estesi da parte del governo. Questi obblighi includono:

  • Utilizzo esclusivo di “sistemi di IA americani” nell’esecuzione del contratto, proibendo espressamente i sistemi esteri;
  • Divulgazione di tutti i sistemi di IA utilizzati nell’esecuzione di un contratto entro 30 giorni dall’assegnazione;
  • Garanzia di meccanismi per la supervisione, l’intervento e il feedback del governo;
  • Divieto di utilizzare dati governativi per allenare o migliorare modelli di IA;
  • Fornitura al governo dei diritti di proprietà sui risultati e sviluppi dell’IA;
  • Segnalazione tempestiva di incidenti di sicurezza o prestazioni;
  • Mantenimento della documentazione relativa alla conformità e ai processi decisionali dei sistemi di IA;
  • Assicurare la portabilità e l’interoperabilità dei dati attraverso l’uso di formati e API standard.

Implicazioni e rischi

Se adottata, la clausola potrebbe rappresentare un cambiamento significativo nella politica di approvvigionamento federale riguardo all’IA. I contraenti dovranno stabilire un quadro di governance interno per l’IA e sviluppare inventari interni dei sistemi di IA utilizzati nell’esecuzione del contratto. Inoltre, dovranno garantire che tutti i sistemi di IA utilizzati siano qualificati come sistemi di IA americani.

Le aziende che dipendono fortemente da strumenti di IA commerciali o ecosistemi complessi di fornitori potrebbero affrontare sfide particolari nell’allineare le pratiche esistenti ai requisiti proposti. Nel lungo periodo, la clausola potrebbe servire da modello per futuri requisiti di approvvigionamento legati all’IA in tutto il governo federale.

Conclusione

Questa clausola segna probabilmente una nuova direzione per la politica di approvvigionamento federale in relazione all’IA. I contraenti che valutano proattivamente e implementano questi nuovi requisiti saranno in una posizione più forte per rimanere conformi e competitivi.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...