Scadenza per commenti sull’introduzione della clausola AI nel contratto GSA estesa

UPDATE: Scadenza per i commenti sulla proposta di clausola AI del GSA estesa al 3 aprile 2026

Il 6 marzo 2026, l’amministrazione dei servizi generali (GSA) ha proposto la clausola GSAR 552.239-7001, Basic Safeguarding of Artificial Intelligence Systems, una clausola contrattuale unica nel suo genere mirata a imporre requisiti specifici per la protezione dell’intelligenza artificiale attraverso i veicoli di approvvigionamento. La clausola è proposta per l’inclusione nei contratti del GSA Schedule attraverso il Multiple Award Schedule (MAS) Refresh 32, segnando un significativo allontanamento dalle pratiche esistenti di acquisizione federale, poiché nessun’altra agenzia ha implementato una clausola di governance AI comparabile e autonoma.

Invece di procedere attraverso il tradizionale processo di notifica e commento, la GSA ha emesso la clausola tramite il processo di commento del MAS refresh, risultando in una tempistica altamente compressa per il feedback delle parti interessate. AGGIORNAMENTO: I commenti sulla clausola proposta erano inizialmente dovuti il 20 marzo 2026, ma la GSA ha pubblicato tramite il proprio blog il 19 marzo 2026, notando che (i) questa scadenza sarebbe stata estesa al 3 aprile 2026 e (ii) la GSA non includerà la clausola nel prossimo MAS Refresh 31, e invece sarà considerata per l’implementazione nel Refresh 32.

Obblighi e requisiti della clausola

Se adottata nella sua forma attuale, la clausola imporrà immediatamente obblighi contrattuali vincolanti che governano lo sviluppo, il dispiegamento e la gestione dei sistemi di intelligenza artificiale (AI) utilizzati o forniti nell’ambito di contratti federali.

In sostanza, la GSAR 552.239-7001 è progettata per promuovere gli obiettivi federali enfatizzando il controllo, la trasparenza e la responsabilità dell’AI. Riflette la crescente preoccupazione all’interno del governo federale riguardo alla sicurezza dei dati, al rischio della catena di approvvigionamento e alla natura opaca di molti sistemi AI commerciali. I contraenti che si affidano all’AI—sia per l’analisi dei dati, la generazione di contenuti, l’automazione o il supporto decisionale—dovranno garantire che le loro pratiche si allineino con queste priorità.

La clausola proposta impone requisiti di divulgazione di vasta portata, restrizioni severe sull’uso dei dati, diritti ampi per il governo di utilizzare le informazioni e obblighi di conformità proattivi per i contraenti che forniscono “capacità di intelligenza artificiale”. In particolare, il termine “capacità di intelligenza artificiale” non è definito nel linguaggio proposto, creando ambiguità. Ci si aspetta che le parti interessate del settore sollevino questa questione durante il periodo di commento, con la speranza che vengano forniti orientamenti più chiari nella versione finale della clausola.

Obblighi di divulgazione e protezione dei dati

I contraenti devono adempiere ai requisiti di divulgazione richiesti dal governo, inclusi i dettagli sui loro sistemi AI utilizzati in connessione con le prestazioni contrattuali. L’obbligo si estende ai processi, alle operazioni e persino alle funzioni interne dei sistemi AI. A seconda dell’implementazione, ciò potrebbe richiedere ai contraenti di prendere inventario e monitorare l’uso dell’AI attraverso le unità aziendali e le funzioni, inclusi gli strumenti di terze parti incorporati nei flussi di lavoro.

La clausola limiterà anche l’uso dei dati del governo in connessione con i sistemi AI. In generale, i contraenti sono vietati dall’usare dati forniti o generati dal governo per addestrare, migliorare o perfezionare i modelli AI. Inoltre, la clausola richiede di segregare i dati del governo da altri dataset, limitando la retention e richiedendo procedure di gestione dei dati che riduano al minimo l’interazione umana con i dati del governo, eccetto quando strettamente necessario.

Implicazioni e conclusioni

Nel breve termine, i contraenti dovrebbero aspettarsi che la clausola venga affinata dalla GSA durante il processo di aggiornamento del MAS. Dato il breve periodo per i commenti (fino al 3 aprile 2026), il feedback dell’industria si concentrerà probabilmente sulla fattibilità dei requisiti di divulgazione, sull’ambito delle restrizioni sui dati e sulle sfide pratiche per conformarsi agli obblighi di flusso.

Se adottata, i contraenti dovrebbero anticipare di dover stabilire un quadro di governance interno per l’AI, sviluppare inventari dei sistemi AI utilizzati nelle prestazioni contrattuali e preparare tali informazioni per la divulgazione, nonché implementare politiche e controlli tecnici per gestire e proteggere i dati del governo.

In conclusione, questa clausola segna probabilmente una nuova direzione per la politica di approvvigionamento federale relativa all’AI. I contraenti che valutano e implementano proattivamente questi nuovi requisiti saranno in una posizione più forte per rimanere conformi e competitivi.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...