UPDATE: Scadenza per i commenti sulla proposta di clausola AI del GSA estesa al 3 aprile 2026
Il 6 marzo 2026, l’amministrazione dei servizi generali (GSA) ha proposto la clausola GSAR 552.239-7001, Basic Safeguarding of Artificial Intelligence Systems, una clausola contrattuale unica nel suo genere mirata a imporre requisiti specifici per la protezione dell’intelligenza artificiale attraverso i veicoli di approvvigionamento. La clausola è proposta per l’inclusione nei contratti del GSA Schedule attraverso il Multiple Award Schedule (MAS) Refresh 32, segnando un significativo allontanamento dalle pratiche esistenti di acquisizione federale, poiché nessun’altra agenzia ha implementato una clausola di governance AI comparabile e autonoma.
Invece di procedere attraverso il tradizionale processo di notifica e commento, la GSA ha emesso la clausola tramite il processo di commento del MAS refresh, risultando in una tempistica altamente compressa per il feedback delle parti interessate. AGGIORNAMENTO: I commenti sulla clausola proposta erano inizialmente dovuti il 20 marzo 2026, ma la GSA ha pubblicato tramite il proprio blog il 19 marzo 2026, notando che (i) questa scadenza sarebbe stata estesa al 3 aprile 2026 e (ii) la GSA non includerà la clausola nel prossimo MAS Refresh 31, e invece sarà considerata per l’implementazione nel Refresh 32.
Obblighi e requisiti della clausola
Se adottata nella sua forma attuale, la clausola imporrà immediatamente obblighi contrattuali vincolanti che governano lo sviluppo, il dispiegamento e la gestione dei sistemi di intelligenza artificiale (AI) utilizzati o forniti nell’ambito di contratti federali.
In sostanza, la GSAR 552.239-7001 è progettata per promuovere gli obiettivi federali enfatizzando il controllo, la trasparenza e la responsabilità dell’AI. Riflette la crescente preoccupazione all’interno del governo federale riguardo alla sicurezza dei dati, al rischio della catena di approvvigionamento e alla natura opaca di molti sistemi AI commerciali. I contraenti che si affidano all’AI—sia per l’analisi dei dati, la generazione di contenuti, l’automazione o il supporto decisionale—dovranno garantire che le loro pratiche si allineino con queste priorità.
La clausola proposta impone requisiti di divulgazione di vasta portata, restrizioni severe sull’uso dei dati, diritti ampi per il governo di utilizzare le informazioni e obblighi di conformità proattivi per i contraenti che forniscono “capacità di intelligenza artificiale”. In particolare, il termine “capacità di intelligenza artificiale” non è definito nel linguaggio proposto, creando ambiguità. Ci si aspetta che le parti interessate del settore sollevino questa questione durante il periodo di commento, con la speranza che vengano forniti orientamenti più chiari nella versione finale della clausola.
Obblighi di divulgazione e protezione dei dati
I contraenti devono adempiere ai requisiti di divulgazione richiesti dal governo, inclusi i dettagli sui loro sistemi AI utilizzati in connessione con le prestazioni contrattuali. L’obbligo si estende ai processi, alle operazioni e persino alle funzioni interne dei sistemi AI. A seconda dell’implementazione, ciò potrebbe richiedere ai contraenti di prendere inventario e monitorare l’uso dell’AI attraverso le unità aziendali e le funzioni, inclusi gli strumenti di terze parti incorporati nei flussi di lavoro.
La clausola limiterà anche l’uso dei dati del governo in connessione con i sistemi AI. In generale, i contraenti sono vietati dall’usare dati forniti o generati dal governo per addestrare, migliorare o perfezionare i modelli AI. Inoltre, la clausola richiede di segregare i dati del governo da altri dataset, limitando la retention e richiedendo procedure di gestione dei dati che riduano al minimo l’interazione umana con i dati del governo, eccetto quando strettamente necessario.
Implicazioni e conclusioni
Nel breve termine, i contraenti dovrebbero aspettarsi che la clausola venga affinata dalla GSA durante il processo di aggiornamento del MAS. Dato il breve periodo per i commenti (fino al 3 aprile 2026), il feedback dell’industria si concentrerà probabilmente sulla fattibilità dei requisiti di divulgazione, sull’ambito delle restrizioni sui dati e sulle sfide pratiche per conformarsi agli obblighi di flusso.
Se adottata, i contraenti dovrebbero anticipare di dover stabilire un quadro di governance interno per l’AI, sviluppare inventari dei sistemi AI utilizzati nelle prestazioni contrattuali e preparare tali informazioni per la divulgazione, nonché implementare politiche e controlli tecnici per gestire e proteggere i dati del governo.
In conclusione, questa clausola segna probabilmente una nuova direzione per la politica di approvvigionamento federale relativa all’AI. I contraenti che valutano e implementano proattivamente questi nuovi requisiti saranno in una posizione più forte per rimanere conformi e competitivi.