Commenti sulla proposta di clausola AI del GSA
Il 6 marzo 2026, l’Amministrazione dei Servizi Generali (GSA) ha proposto la clausola GSAR 552.239‑7001, “Protezione di base dei sistemi di intelligenza artificiale”, una clausola contrattuale senza precedenti volta a imporre requisiti specifici di salvaguardia per l’IA attraverso veicoli di approvvigionamento. La clausola è proposta per l’inclusione nei Contratti del Programma GSA attraverso il Refresh 31 del Multiple Award Schedule (MAS), segnando una deviazione dalle pratiche di acquisizione federale esistenti, poiché nessun’altra agenzia ha implementato una clausola di governance dell’IA comparabile e autonoma.
Invece di procedere attraverso il tradizionale processo di commento pubblico, il GSA ha emesso la clausola tramite il processo di commento del refresh del MAS, risultando in una scadenza compressa per il feedback degli stakeholder, con i commenti dovuti entro il 20 marzo 2026. Se adottata nella sua forma attuale, la clausola imporrebbe obblighi vincolanti contrattuali relativi allo sviluppo, al dispiegamento e alla gestione dei sistemi di intelligenza artificiale utilizzati o forniti nell’ambito di contratti federali.
Obiettivi e requisiti della clausola
La clausola GSAR 552.239-7001 è progettata per avanzare gli obiettivi federali enfatizzando il controllo, la trasparenza e la responsabilità dell’IA. Riflette la crescente preoccupazione all’interno del governo federale riguardo alla sicurezza dei dati, ai rischi della catena di approvvigionamento e alla natura opaca di molti sistemi commerciali di intelligenza artificiale. I contraenti che si avvalgono dell’IA — sia per l’analisi dei dati, la generazione di contenuti, l’automazione o il supporto decisionale — dovranno garantire che le loro pratiche siano allineate con queste priorità.
La clausola introduce obblighi di divulgazione, restrizioni significative all’uso dei dati e diritti di utilizzo estesi da parte del governo. Questi obblighi includono:
- Utilizzo esclusivo di “sistemi di IA americani” nell’esecuzione del contratto, proibendo espressamente i sistemi esteri;
- Divulgazione di tutti i sistemi di IA utilizzati nell’esecuzione di un contratto entro 30 giorni dall’assegnazione;
- Garanzia di meccanismi per la supervisione, l’intervento e il feedback del governo;
- Divieto di utilizzare dati governativi per allenare o migliorare modelli di IA;
- Fornitura al governo dei diritti di proprietà sui risultati e sviluppi dell’IA;
- Segnalazione tempestiva di incidenti di sicurezza o prestazioni;
- Mantenimento della documentazione relativa alla conformità e ai processi decisionali dei sistemi di IA;
- Assicurare la portabilità e l’interoperabilità dei dati attraverso l’uso di formati e API standard.
Implicazioni e rischi
Se adottata, la clausola potrebbe rappresentare un cambiamento significativo nella politica di approvvigionamento federale riguardo all’IA. I contraenti dovranno stabilire un quadro di governance interno per l’IA e sviluppare inventari interni dei sistemi di IA utilizzati nell’esecuzione del contratto. Inoltre, dovranno garantire che tutti i sistemi di IA utilizzati siano qualificati come sistemi di IA americani.
Le aziende che dipendono fortemente da strumenti di IA commerciali o ecosistemi complessi di fornitori potrebbero affrontare sfide particolari nell’allineare le pratiche esistenti ai requisiti proposti. Nel lungo periodo, la clausola potrebbe servire da modello per futuri requisiti di approvvigionamento legati all’IA in tutto il governo federale.
Conclusione
Questa clausola segna probabilmente una nuova direzione per la politica di approvvigionamento federale in relazione all’IA. I contraenti che valutano proattivamente e implementano questi nuovi requisiti saranno in una posizione più forte per rimanere conformi e competitivi.