Quali sono gli impegni centrali del quadro di riferimento in materia di trasparenza, documentazione del modello e copyright per i modelli di IA per scopi generali?
Questa sezione del Codice di condotta sull’IA per scopi generali affronta la trasparenza, la documentazione del modello e la conformità al copyright per i modelli di IA per scopi generali (GPAI). Delinea impegni e misure specifici volti ad allinearsi al Capitolo V dell’AI Act.
Trasparenza e documentazione
Impegno I.1: Documentazione I fornitori si impegnano a mantenere aggiornata la documentazione del modello, come previsto dall’articolo 53, paragrafo 1, lettere a) e b), dell’AI Act. Ciò include la fornitura di informazioni pertinenti ai fornitori a valle che integrano il modello GPAI nei loro sistemi di IA e all’Ufficio AI su richiesta.
Aspetti chiave di questo impegno:
- Un modulo di documentazione del modello di facile utilizzo semplifica la conformità e garantisce una facile documentazione.
- Il documento specifica chiaramente se ogni elemento elencato è destinato ai fornitori a valle, all’Ufficio AI o alle autorità nazionali competenti.
- Le informazioni destinate all’Ufficio AI o alle autorità nazionali competenti vengono fornite solo su richiesta, indicando la base giuridica e lo scopo.
- Le informazioni per i fornitori a valle devono essere messe a loro disposizione in modo proattivo.
- I fornitori sono tenuti a garantire la qualità, la sicurezza e l’integrità delle informazioni documentate.
Esenzione: Queste misure non si applicano ai fornitori di modelli di IA open source che soddisfano le condizioni specificate nell’articolo 53, paragrafo 2, dell’AI Act, a meno che questi modelli non siano classificati come modelli GPAI con rischio sistemico.
Conformità al copyright
Impegno I.2: Politica sul copyright Per conformarsi al diritto dell’Unione sul diritto d’autore e sui diritti connessi ai sensi dell’articolo 53, paragrafo 1, lettera c), dell’AI Act, i firmatari si impegnano a redigere, mantenere aggiornata e attuare una politica sul copyright.
Gli elementi di questo impegno sono:
- Sviluppare una politica per conformarsi al diritto dell’Unione sul diritto d’autore e sui diritti connessi.
- Identificare e rispettare le riserve di diritti espresse ai sensi dell’articolo 4, paragrafo 3, della direttiva (UE) 2019/790.
- Adottare misure per i modelli GPAI immessi sul mercato dell’UE, tra cui:
- Riprodurre ed estrarre solo contenuti protetti da copyright legalmente accessibili durante la scansione del web.
- Identificare e rispettare le riserve di diritti.
- Ottenere informazioni adeguate sui contenuti protetti che non vengono scansionati dal web dal firmatario.
- Designare un punto di contatto e consentire la presentazione di reclami.
- Attuare misure per mitigare il rischio di produzione di output che violano il copyright.
Questo Codice di condotta mira ad aiutare i fornitori di IA a conformarsi efficacemente ai loro obblighi ai sensi dell’AI Act, garantendo un elevato livello di trasparenza e rispettando le leggi sul copyright all’interno dell’UE.
Quali sono i principi fondamentali che guidano lo sviluppo del Codice di Condotta e in che modo influenzano la sua struttura e il suo contenuto?
Il Codice di Condotta sull’IA per Scopi Generali mira a guidare lo sviluppo e l’implementazione di modelli di IA nell’ambito del Regolamento UE sull’IA. Ecco un’analisi dei principi fondamentali che ne modellano la struttura e il contenuto:
Allineamento ai Valori UE
Il Codice attribuisce priorità all’adesione ai principi e ai valori fondamentali dell’UE, garantendo l’allineamento con la Carta dei diritti fondamentali, il Trattato sull’Unione Europea e il Trattato sul funzionamento dell’Unione Europea.
Regolamento IA e Armonizzazione Internazionale
Il Codice facilita la corretta applicazione del Regolamento IA, tenendo conto al contempo degli approcci internazionali, compresi gli standard e le metriche sviluppati dagli Istituti di Sicurezza dell’IA e dalle organizzazioni di normazione, ai sensi dell’articolo 56, paragrafo 1, del Regolamento IA.
Proporzionalità ai Rischi
Il Codice lega la severità degli impegni e delle misure al livello di rischio, richiedendo un’azione più rigorosa quando si affrontano livelli di rischio più elevati o potenziali danni gravi. Le strategie specifiche includono:
- Misure Mirate: Concentrarsi su misure specifiche e attuabili piuttosto che su proxy ampi e meno definiti.
- Differenziazione del Rischio: Adattare le strategie di valutazione e mitigazione del rischio a diversi tipi di rischio, scenari di implementazione e metodi di distribuzione. Ad esempio, la mitigazione del rischio sistemico potrebbe distinguere tra rischi intenzionali e non intenzionali.
- Aggiornamenti Dinamici: Fare riferimento a fonti di informazioni dinamiche che i fornitori possono essere tenuti a monitorare nella loro valutazione e mitigazione del rischio, tra cui database di incidenti, standard di consenso, registri dei rischi aggiornati, quadri di riferimento all’avanguardia per la gestione del rischio e orientamenti dell’Ufficio IA.
A Prova di Futuro
Riconoscendo il rapido ritmo del progresso tecnologico, il Codice mira a rimanere pertinente attraverso:
- Abilitare Aggiornamenti Rapidi: Facilitare l’adattamento e gli aggiornamenti rapidi per riflettere gli sviluppi tecnologici e del settore.
- Fare Riferimento a Informazioni Dinamiche: Puntare a fonti di informazioni dinamiche per la valutazione e la mitigazione del rischio, come i quadri di riferimento all’avanguardia per la gestione del rischio.
- Affrontare i Modelli Emergenti: Considerare misure aggiuntive per modelli di IA per scopi generali specifici, compresi quelli utilizzati nei sistemi di IA agentici.
Supporto alle PMI
Il Codice riconosce le sfide uniche affrontate dalle piccole e medie imprese (PMI) e dalle startup e tiene conto dei loro vincoli. Le misure devono consentire metodi di conformità semplificati per le PMI che non dispongono delle risorse dei maggiori sviluppatori di IA.
Supporto all’Ecosistema
Il Codice promuove la cooperazione e la condivisione delle conoscenze tra le parti interessate attraverso:
- Condivisione di Risorse: Consentire la condivisione di infrastrutture di sicurezza dell’IA e migliori pratiche tra i fornitori di modelli.
- Coinvolgimento delle Parti Interessate: Incoraggiare la partecipazione della società civile, del mondo accademico, di terzi e delle organizzazioni governative.
Innovazione nella Governance e nella Gestione del Rischio
Il Codice incoraggia l’innovazione riconoscendo i progressi nella governance della sicurezza dell’IA e nella raccolta di prove. Approcci alternativi alla sicurezza dell’IA che dimostrino risultati uguali o superiori con un carico inferiore dovrebbero essere riconosciuti e supportati.
Come dovrebbero i fornitori di modelli AI per scopi generali con rischio sistemico definire e implementare un Quadro di Sicurezza e Protezione?
Per i fornitori di modelli AI per scopi generali con rischio sistemico (GPAISR), stabilire un solido Quadro di Sicurezza e Protezione è fondamentale per l’adesione a normative come l’AI Act. Questo quadro non è solo un insieme di linee guida, è un sistema dinamico costruito per valutare, mitigare e governare i rischi associati a modelli AI potenzialmente pericolosi.
Componenti fondamentali del Quadro
Il quadro dovrebbe descrivere in dettaglio la valutazione del rischio sistemico, la mitigazione e le misure di governance intese a mantenere i rischi sistemici derivanti da GPAISR entro livelli accettabili. Il quadro deve includere questi componenti:
- Criteri di accettazione del rischio sistemico: Valori di riferimento predefiniti per determinare se i rischi sistemici sono accettabili. Questi criteri dovrebbero:
- Essere definiti per ogni rischio sistemico identificato.
- Includere livelli di rischio sistemico misurabili.
- Specificare livelli di rischio inaccettabili, soprattutto senza mitigazione.
- Allinearsi alle migliori pratiche di organismi internazionali o alle linee guida dell’AI Office.
- Procedure di valutazione e mitigazione del rischio sistemico: Delimitare come l’azienda valuterà sistematicamente i rischi in diversi punti lungo il ciclo di vita del modello, soprattutto prima della distribuzione.
- Previsione: Per ogni livello di rischio sistemico dipendente da specifiche capacità del modello, indicare le stime delle tempistiche entro cui ragionevolmente prevedono di aver sviluppato per la prima volta un GPAISR che possiede tali capacità, se tali capacità non sono ancora possedute da nessuno dei modelli del Firmatario già disponibili sul mercato, al fine di agevolare la preparazione di adeguate mitigazioni del rischio sistemico.
- Mitigazione tecnica del rischio sistemico: I firmatari devono documentare nel Quadro le mitigazioni tecniche del rischio sistemico, comprese le mitigazioni di sicurezza, che sono intese a ridurre il rischio sistemico associato al livello di rischio sistemico pertinente.
- Mitigazione del rischio di governance: Dettagliare le strutture di governance, i meccanismi di supervisione e i quadri di responsabilità per la gestione dei rischi sistemici.
Implementazione pratica e reporting
L’implementazione del quadro comporta un processo continuo di valutazione, adattamento e reporting. Le considerazioni chiave includono:
- Valutazioni periodiche dell’adeguatezza: Determinare se il quadro stesso è efficace nella valutazione e mitigazione dei rischi sistemici.
- Rapporti sul modello di sicurezza e protezione: Questi rapporti devono documentare i risultati della valutazione del rischio, le strategie di mitigazione e le giustificazioni per le decisioni di implementazione, presentate all’AI Office.
- Trasparenza e input esterni: il quadro dovrebbe considerare gli input di attori esterni nel suo processo decisionale in merito ai rischi sistemici.
- Segnalazione di incidenti gravi: Implementare processi per monitorare, documentare e segnalare all’AI Office informazioni rilevanti su incidenti gravi durante l’intero ciclo di vita del modello e possibili misure correttive per affrontarli, con adeguate risorse di tali processi rispetto alla gravità dell’incidente grave e al grado di coinvolgimento del proprio modello.
- Trasparenza pubblica: Pubblicare informazioni rilevanti per la comprensione pubblica dei rischi sistemici derivanti dai loro GPAISR, ove necessario per consentire efficacemente la valutazione e la mitigazione dei rischi sistemici.
Sfide e sfumature
Orientarsi in questo panorama richiede un’attenta considerazione di diversi fattori:
- Proporzionalità: La valutazione e la mitigazione del rischio devono essere proporzionate ai rischi specifici presentati dal modello.
- Tenersi al passo con lo stato dell’arte: Implementare mitigazioni tecniche di sicurezza all’avanguardia che mitighino al meglio i rischi sistemici inaccettabili, comprese le migliori pratiche di sicurezza informatica generali, in modo da raggiungere almeno l’obiettivo di sicurezza RAND SL3
- Collaborazione: La condivisione di strumenti, pratiche e valutazioni con altre organizzazioni può migliorare la sicurezza complessiva e ridurre la duplicazione degli sforzi.
- Team multidisciplinari di valutazione del modello: Assicurare che tutti i team di valutazione del modello abbiano le competenze per contribuire alla valutazione del modello per la valutazione del rischio sistemico.
Considerazioni etiche
Infine, i fornitori NON devono attuare ritorsioni nei confronti di alcun lavoratore che fornisca informazioni sui rischi sistemici derivanti dai GPAISR dei firmatari all’AI Office o, a seconda dei casi, alle autorità nazionali competenti, e informare almeno annualmente i lavoratori di una casella di posta dell’AI Office designata per la ricezione di tali informazioni, se tale casella di posta esiste.
Quali sono i passaggi cruciali per identificare, analizzare e mitigare i rischi sistemici durante l’intero ciclo di vita dei modelli di IA per scopi generali?
Il proposto Codice di condotta sull’IA dell’UE, progettato per guidare la conformità con l’AI Act, enfatizza un approccio sistematico alla gestione dei rischi sistemici associati ai modelli di IA per scopi generali (GPAISRs). Ecco un’analisi dei passaggi fondamentali, su misura per i professionisti della governance dell’IA:
1. Stabilire un quadro di sicurezza e protezione
I fornitori di GPAISR devono adottare e implementare un quadro di sicurezza e protezione completo. Questo quadro dovrebbe descrivere in dettaglio la valutazione del rischio sistemico, le strategie di mitigazione e le misure di governance progettate per mantenere i rischi entro livelli accettabili. I componenti chiave del quadro includono:
- Criteri di accettazione del rischio sistemico: Criteri chiaramente definiti e giustificati per determinare l’accettabilità dei rischi sistemici, inclusi livelli di rischio misurabili.
- Piani di mitigazione del rischio: Descrizioni dettagliate delle mitigazioni tecniche, dei loro limiti e dei piani di emergenza per gli scenari in cui le mitigazioni falliscono.
2. Valutazione e mitigazione del rischio sistemico (su tutto il ciclo di vita)
Condurre valutazioni del rischio sistemico in punti appropriati durante l’intero ciclo di vita del modello, a partire dallo sviluppo. Questo processo prevede diverse attività chiave:
- Pianificazione dello sviluppo: Implementare un quadro e iniziare a valutare/mitigare i rischi quando si pianifica un GPAISR, o al più tardi 4 settimane dopo la notifica all’AI Office.
- Revisioni delle tappe fondamentali: Valutare e attenuare i rischi in corrispondenza delle tappe fondamentali documentate durante lo sviluppo, ad esempio dopo la messa a punto, l’espansione dell’accesso o la concessione di nuove affordance. Implementare procedure per identificare rapidamente cambiamenti sostanziali del rischio.
3. Identificazione del rischio sistemico
Selezionare e caratterizzare ulteriormente i rischi sistemici derivanti dai GPAISR che sono sufficientemente significativi da giustificare un’ulteriore valutazione e mitigazione. Considerazioni cruciali includono:
- Adesione alla tassonomia: Selezione dei rischi da una tassonomia definita di rischi sistemici (ad esempio, attacchi informatici, rischi CBRN, manipolazione dannosa).
- Pianificazione di scenari: Sviluppare scenari di rischio sistemico per caratterizzare la natura e le fonti. Questi dovrebbero includere potenziali percorsi verso il danno e usi impropri ragionevolmente prevedibili.
4. Analisi del rischio sistemico
Condurre un’analisi rigorosa dei rischi sistemici identificati, stimandone la gravità e la probabilità. L’analisi dovrebbe sfruttare più fonti e metodi:
- Stime quantitative e qualitative: Utilizzare stime quantitative e qualitative del rischio in modo appropriato insieme a indicatori di rischio sistemico per monitorare i progressi verso i livelli di rischio.
- Valutazioni all’avanguardia: Eseguire valutazioni per valutare adeguatamente le capacità, le propensioni e gli effetti dei GPAISR, utilizzando un’ampia gamma di metodologie (ad esempio, red teaming, benchmark).
- Informazioni indipendenti dal modello: Raccogliere informazioni da rassegne della letteratura, dati storici sugli incidenti e consultazioni di esperti.
5. Determinazione dell’accettazione del rischio
Confrontare i risultati dell’analisi del rischio sistemico con i criteri di accettazione del rischio predefiniti per garantire la proporzionalità. Utilizzare questi confronti per informare le decisioni sullo sviluppo, l’immissione sul mercato e l’utilizzo. Se i rischi sono considerati inaccettabili:
- Implementare ulteriori misure di mitigazione: Oppure non rendere disponibile un modello sul mercato, se applicabile.
- Limitare il marketing: Ritirare o richiamare un modello dal mercato, se applicabile.
6. Mitigazioni di sicurezza e protezione (tecniche)
Implementare mitigazioni di sicurezza tecniche all’avanguardia che siano proporzionate ai rischi sistemici, come: filtrare i dati di addestramento, monitorare input/output, mettere a punto per rifiutare determinate richieste e implementare salvaguardie/strumenti di sicurezza.
In particolare:
- Implementare le migliori pratiche generali in materia di sicurezza informatica.
- Implementare procedure per valutare e testare la loro preparazione alla sicurezza contro potenziali e reali avversari. Ciò include strumenti come revisioni di sicurezza regolari e programmi di bug bounty.
7. Governance e documentazione
Diverse misure di governance sono fondamentali per gestire e supervisionare efficacemente il processo:
- Chiara attribuzione delle responsabilità: Definire e attribuire la responsabilità della gestione del rischio sistemico a tutti i livelli organizzativi.
- Valutazioni esterne indipendenti: Ottenere valutazioni esterne indipendenti dei GPAISR prima di immetterli sul mercato.
- Segnalazione di incidenti gravi: Impostare processi per tracciare, documentare e segnalare incidenti gravi all’AI Office senza indebito ritardo.
- Relazioni sui modelli: Creare relazioni dettagliate sulla sicurezza e sulla protezione del modello che documentino le valutazioni del rischio, le mitigazioni e le giustificazioni per l’immissione sul mercato.
- Trasparenza pubblica: Pubblicare informazioni rilevanti per la comprensione pubblica dei rischi sistemici.
Seguendo diligentemente questi passaggi, le organizzazioni possono navigare meglio nel complesso panorama della governance dell’IA e promuovere un ecosistema di IA più responsabile e affidabile.
Quali principi fondamentali dovrebbero guidare l’implementazione di strumenti e best practice per la valutazione di modelli all’avanguardia e la valutazione del rischio di sistema per tutti i modelli?
La bozza di Codice di Condotta sull’IA dell’Unione Europea, volta a fornire un modello per la conformità al Regolamento sull’IA, enfatizza diversi principi fondamentali per l’implementazione della valutazione di modelli all’avanguardia e della valutazione del rischio. Questi si applicano specificamente ai modelli di IA per scopi generali con rischio sistemico (GPAISR), ma forniscono preziose informazioni per tutto lo sviluppo dell’IA. Ecco un’analisi per i professionisti del legal-tech:
Principi e valori dell’UE
Tutti gli strumenti e le pratiche devono allinearsi in modo dimostrabile con i diritti e i valori fondamentali sanciti dal diritto dell’UE, inclusa la Carta dei diritti fondamentali.
Allineamento con il Regolamento sull’IA e gli approcci internazionali
La valutazione del modello e la valutazione del rischio devono contribuire direttamente alla corretta applicazione del Regolamento sull’IA. Ciò significa:
- Fare riferimento a standard e metriche internazionali, come quelli sviluppati dagli Istituti per la sicurezza dell’IA, in conformità con l’articolo 56(1) del Regolamento sull’IA.
Proporzionalità ai rischi
Il rigore delle misure di valutazione e mitigazione deve essere direttamente proporzionale ai rischi identificati. Questo principio guida molteplici azioni chiave:
- Misure più rigorose per i livelli di rischio più elevati o i rischi incerti di danni gravi.
- Misure specifiche che definiscano chiaramente come i fornitori devono adempiere agli obblighi.
- Differenziazione delle misure in base ai tipi di rischio, alle strategie di distribuzione, ai contesti di implementazione e ad altri fattori che influenzano i livelli di rischio.
L’Ufficio per l’IA monitorerà proattivamente le misure suscettibili di elusione o specifica errata.
A prova di futuro
Data la rapida evoluzione della tecnologia IA, gli strumenti e le pratiche devono facilitare rapidi aggiornamenti alla luce dei progressi tecnologici. Ciò implica:
- Fare riferimento a fonti di informazioni dinamiche, come database di incidenti, standard di consenso, registri dei rischi, quadri di gestione dei rischi e linee guida dell’Ufficio per l’IA, che i fornitori sono tenuti a monitorare.
- Articolare misure aggiuntive per specifici modelli GPAI (ad esempio, quelli utilizzati nei sistemi di IA agentica) in base alle necessità della tecnologia.
Proporzionalità alle dimensioni del fornitore
Le misure dovrebbero tenere conto delle dimensioni e delle risorse del fornitore del modello di IA. Il Regolamento sull’IA riconosce il valore e la necessità di percorsi semplificati verso la conformità per le piccole e medie imprese (PMI) e le startup.
Supporto e crescita di un’IA sicura e incentrata sull’uomo
Il Codice è progettato per promuovere la cooperazione tra le parti interessate attraverso un’infrastruttura di sicurezza condivisa e le migliori pratiche. Le azioni includono:
- Condivisione dell’infrastruttura di sicurezza e delle migliori pratiche
- Incoraggiare la partecipazione della società civile, del mondo accademico, di terzi e di organizzazioni governative.
- Promuovere la trasparenza tra le parti interessate e maggiori sforzi di condivisione delle conoscenze.
Innovazione nella governance dell’IA e nella gestione dei rischi
Il Codice incoraggia i fornitori a innovare e a far progredire lo stato dell’arte nella governance della sicurezza dell’IA. Gli approcci alternativi che dimostrano risultati di sicurezza uguali o superiori dovrebbero essere riconosciuti e supportati.
Impegno per la documentazione e la trasparenza
I firmatari del codice si impegnano a redigere e mantenere aggiornata la documentazione del modello, comprese le informazioni relative al processo di formazione e ai dati utilizzati, che sia pubblicamente disponibile.
Quali sono i requisiti di governance e di reporting che i fornitori di GPAISR devono seguire per garantire responsabilità e trasparenza?
Il Codice di Condotta dell’AI Act impone obblighi significativi di governance e di reporting ai fornitori di modelli di IA per Scopi Generali con Rischio Sistemico (GPAISR) per promuovere la responsabilità e la trasparenza. Questi requisiti sono progettati per garantire che questi modelli, date le loro capacità ad alto impatto, siano sviluppati e implementati in modo responsabile.
Relazioni sul Modello di Sicurezza e Protezione
Un requisito fondamentale è la creazione di una Relazione sul Modello di Sicurezza e Protezione per ciascun GPAISR prima che sia reso disponibile sul mercato. Questa relazione deve documentare:
- Valutazione del rischio sistemico e risultati della mitigazione.
- Giustificazioni per le decisioni di rilascio del modello.
Il livello di dettaglio richiesto nella Relazione sul Modello deve essere proporzionato al livello di rischio sistemico che il modello rappresenta. Ciò consente all’Ufficio AI di comprendere come il fornitore sta implementando la sua valutazione del rischio sistemico e le misure di mitigazione. La relazione deve definire le condizioni in cui le giustificazioni per aver ritenuto accettabile il rischio sistemico non sarebbero più valide.
Documentazione della Conformità e della Gestione del Rischio
Oltre alla Relazione sul Modello, i GPAISR devono documentare meticolosamente la loro conformità all’AI Act e al Codice di Condotta. Tale documentazione include:
- Stima se il loro modello di IA ha soddisfatto le condizioni di classificazione come GPAISR
- Le metodologie per identificare e affrontare i rischi sistematici, soprattutto per quanto riguarda le fonti di tali rischi.
- Le limitazioni e l’imprecisione durante il test e la convalida dei rischi sistematici.
- Le qualifiche e il livello dei team di revisione del modello sia interni che esterni.
- La logica per giustificare il livello dei rischi sistemici come accettabile.
- Come i vincoli di sicurezza e protezione sono soddisfatti, gestiti e seguiti, così come le misure adottate per sviluppare le procedure in atto per monitorarli.
È fondamentale conservare tale documentazione per un periodo di almeno dodici mesi e oltre il ritiro del modello di IA.
Trasparenza sul Comportamento Previsto del Modello
Le Relazioni sul Modello devono anche specificare il comportamento previsto del modello, ad esempio:
- I principi che il modello è progettato per seguire.
- Come il modello dà priorità a diversi tipi di istruzioni.
- Argomenti su cui il modello intende rifiutare le istruzioni.
Framework per la Sicurezza e la Protezione
I firmatari devono preparare e mantenere un Framework di Sicurezza e Protezione che dettagli la valutazione del rischio sistemico, la mitigazione e le procedure di governance. Questo framework deve includere criteri di accettazione del rischio sistemico che:
- Siano misurabili.
- Definiscano livelli di rischio sistemico collegati alle capacità del modello, ai risultati dannosi e alle stime quantitative del rischio.
- Identifichino i trigger e le condizioni di rischio sistemico che richiederanno mitigazioni a specifici rischi sistemici.
I framework devono essere continuamente migliorati, rapidamente aggiornati e dovrebbero riflettere dinamicamente lo stato dell’arte attuale nell’IA.
Notifiche all’Ufficio AI
I GPAISR sono tenuti a notificare all’Ufficio AI diversi eventi chiave:
- Quando il loro modello di IA per scopi generali soddisfa i criteri per la classificazione come GPAISR.
- Aggiornamenti al loro Framework di Sicurezza e Protezione.
- I risultati delle valutazioni di adeguatezza.
- Il rilascio di una Relazione sul Modello di Sicurezza e Protezione.
Tali notifiche sono necessarie per valutare se il codice viene seguito in modo appropriato e per garantire una rapida conformità.
Monitoraggio e Adattamento Post-Market
La governance non termina con le relazioni pre-rilascio; i GPAISR devono condurre un monitoraggio post-market per raccogliere dati del mondo reale sulle capacità e gli effetti dei loro modelli. Se ci sono cambiamenti materiali al sistema o al panorama del rischio sistemico, i fornitori devono aggiornare le loro Relazioni sul Modello e, quando appropriato, rivalutare la situazione, in modo che il modello rimanga conforme alle normative.
Valutazione Esterna e Interna
Oltre al monitoraggio interno, i processi di valutazione del rischio sistemico devono includere input da attori esterni, incluso il governo.
- Quando un GPAISR è pronto per essere rilasciato sul mercato, il modello deve essere sottoposto a una valutazione esterna, per tutti i rischi sistemici rilevati, prima di essere rilasciato sul mercato.
- Dopo essere stato rilasciato, un GPAISR richiede un programma di ricerca che fornisca ai modelli l’accesso tramite API. Gli accessi devono essere concessi a accademici e team esterni che conducono lavori che studiano i rischi sistematici e l’attività non commerciale.
- Qualsiasi lavoro o feedback fornito da accademici e dai team dovrebbe quindi essere utilizzato per aggiornare il codice e la documentazione dei GPAISR attuali.
Valutazione Indipendente
Valutatori esterni dovrebbero essere utilizzati per assicurarsi che si tenga conto dei pregiudizi nel processo. I valutatori devono:
- Possedere la corretta esperienza nel dominio per valutare e convalidare il rischio sistematico.
- Essere tecnicamente esperti e competenti nella conduzione della convalida del modello.
- Aver implementato sistemi informativi interni ed esterni, che sono attivamente testati e hanno una relazione attuale per convalidare la loro integrità.
Non-ritorsione e Governance del Rischio
I firmatari sono tenuti a non intraprendere ritorsioni in qualsiasi forma contro i lavoratori che potrebbero condividere informazioni o esprimere preoccupazioni. Hanno bisogno di avere infrastrutture sicure in pratica per consentire che le preoccupazioni siano sollevate liberamente, soprattutto all’Ufficio AI come punto di contatto.
Quali sono gli elementi essenziali per un processo di valutazione funzionale e indipendente del modello di IA?
Con l’avvicinarsi della data di implementazione dell’AI Act, i professionisti del legal-tech e i responsabili della conformità si stanno concentrando sulle valutazioni indipendenti dei modelli. Cosa dovrebbero internalizzare i fornitori di modelli di IA per scopi generali con rischio sistemico (GPAISR) per garantire un processo di valutazione solido?
Valutazioni esterne indipendenti
Prima di immettere un GPAISR sul mercato, i fornitori devono ottenere valutazioni indipendenti esterne del rischio sistemico, che includono valutazioni del modello, a meno che non si possa dimostrare che il modello è sufficientemente sicuro. Dopo l’immissione sul mercato, è fondamentale facilitare valutazioni esterne indipendenti esplorative, comprese le valutazioni del modello. Ciò evidenzia la necessità di collaborazione e trasparenza.
Selezione di valutatori indipendenti
I fornitori di GPAISR dovrebbero cercare valutatori che:
- Abbia una significativa competenza nel dominio, in linea con il dominio di rischio valutato.
- Possieda le competenze tecniche e l’esperienza per eseguire rigorose valutazioni del modello.
- Mantenga solidi protocolli di sicurezza delle informazioni interni ed esterni, adatti al livello di accesso concesso.
Fornire accesso e risorse
I fornitori devono fornire ai valutatori esterni indipendenti l’accesso, le informazioni, il tempo e le risorse necessari per effettuare valutazioni efficaci del rischio sistemico. Ciò può significare l’accesso a capacità di ottimizzazione fine, strumenti di inferenza sicuri e documentazione completa del modello.
Mantenere l’integrità
Per garantire la validità delle valutazioni esterne indipendenti, tali valutazioni devono essere eseguite senza l’influenza impropria del fornitore. Ad esempio, i fornitori devono evitare di archiviare e analizzare input e output del modello derivanti da test senza esplicito permesso.
Facilitare la valutazione post-immissione sul mercato
I fornitori devono facilitare la ricerca esterna esplorativa dopo che i modelli GPAISR sono stati rilasciati, implementando un programma di ricerca che fornisca l’accesso API ai modelli con e senza mitigazioni, stanziando crediti API di ricerca gratuiti per la ricerca legittima e contribuendo a un regime di safe harbor legale e tecnico per proteggere i valutatori che testano il modello.
Considerazioni importanti per le PMI
Le piccole e medie imprese (PMI) che incontrano difficoltà ad aderire agli standard di qualità o a cooperare con le parti interessate pertinenti devono avvisare l’Ufficio per l’IA e chiedere assistenza per trovare mezzi alternativi adeguati per soddisfare i requisiti.
Trasparenza e divulgazione
È importante trovare un equilibrio tra trasparenza pubblica e mantenimento della sicurezza divulgando le mitigazioni di sicurezza e le valutazioni del modello con il maggior dettaglio possibile, implementando al contempo redazioni per prevenire un aumento del rischio sistemico o informazioni economiche sensibili.
Come si può promuovere una cultura del rischio sana all’interno delle organizzazioni coinvolte nello sviluppo e nella diffusione di GPAISR?
Promuovere una cultura del rischio sana è fondamentale per le organizzazioni che sviluppano e distribuiscono modelli di IA per scopi generali con rischio sistemico (GPAISR). Secondo la bozza del Codice di condotta, ciò comporta diversi passaggi interconnessi:
Definizione e assegnazione delle responsabilità
Per le attività riguardanti la valutazione e la mitigazione del rischio sistemico per i loro GPAISR, i firmatari si impegnano a: (1) definire e assegnare chiaramente le responsabilità per la gestione del rischio sistemico derivante dai loro GPAISR a tutti i livelli dell’organizzazione; (2) allocare risorse appropriate agli attori a cui sono state assegnate responsabilità per la gestione del rischio sistemico; e (3) promuovere una cultura del rischio sana.
Nello specifico, il Codice enfatizza definizioni chiare delle responsabilità, nonché l’allocazione delle risorse, a diversi livelli all’interno dell’organizzazione:
- Supervisione del rischio: Supervisionare le attività di valutazione e mitigazione del rischio dell’organizzazione.
- Proprietà del rischio: Gestire i rischi sistemici derivanti dai GPAISR.
- Supporto e monitoraggio: Supportare e monitorare la valutazione e la mitigazione del rischio.
- Assicurazione: Fornire assicurazione interna (e esterna, quando necessario) in merito all’adeguatezza delle attività relative alla valutazione e alla mitigazione del rischio.
Le responsabilità sono allocate tra:
- Organi di gestione di livello superiore
- Team di gestione
- Team operativi
- Fornitori di assicurazione, interni o esterni
Allocazione delle risorse
Inoltre, l’organizzazione deve allocare risorse a coloro che hanno responsabilità di gestione, tra cui:
- Risorse umane
- Risorse finanziarie
- Accesso alle informazioni e alla conoscenza
- Risorse computazionali
Promuovere un approccio misurato ed equilibrato
È inoltre fondamentale il modo in cui si comporta la leadership. I firmatari devono promuovere una cultura del rischio sana e adottare misure per garantire che gli attori a cui sono state assegnate responsabilità per la gestione del rischio sistemico derivante dai GPAISR (ai sensi della Misura II.10.1) adottino un approccio misurato ed equilibrato al rischio sistemico, senza essere eccessivamente propensi al rischio, né ignoranti del rischio, né avversi al rischio, in base al livello di rischio sistemico derivante dai GPAISR dei firmatari.
Gli obiettivi finali a cui mirare includono un ambiente di lavoro con comunicazione aperta e incentivi sensibili:
- Stabilire il tono in materia di cultura del rischio sistemico sana dall’alto;
- Consentire una comunicazione efficace e una contestazione delle decisioni relative al rischio sistemico;
- Incentivi appropriati per scoraggiare l’assunzione di rischi sistemici eccessivi, come ricompense per un comportamento cauto e segnalazione interna dei rischi sistemici;
Idealmente, questi sforzi dovrebbero portare a uno staff che si senta a proprio agio nel comunicare potenziali problemi relativi al proprio lavoro:
- Indagini anonime rilevano che il personale è a conoscenza dei canali di segnalazione, si sente a proprio agio nel sollevare preoccupazioni sui rischi sistemici, comprende il quadro di riferimento del firmatario e si sente a proprio agio nel parlare; oppure
- I canali di segnalazione interni sono attivamente utilizzati e le segnalazioni vengono gestite in modo appropriato.
Quali sono i requisiti fondamentali per la segnalazione e la gestione di incidenti gravi che coinvolgono i GPAISR?
Con l’approssimarsi dell’entrata in vigore dell’AI Act dell’UE, i riflettori si stanno concentrando sulla segnalazione degli incidenti per i modelli di intelligenza artificiale per scopi generali con rischio sistemico (GPAISR). Ecco un riepilogo dei requisiti chiave, estratti direttamente dall’ultima bozza del Codice di condotta sull’IA:
Monitoraggio Completo degli Incidenti
I fornitori di GPAISR devono stabilire processi solidi per il monitoraggio, la documentazione e la segnalazione di incidenti gravi all’Ufficio per l’IA (e potenzialmente alle autorità nazionali) senza indebiti ritardi. Questi processi necessitano di risorse sufficienti, in relazione alla gravità dell’incidente e al coinvolgimento del loro modello. I metodi per identificare incidenti gravi devono essere allineati con i loro modelli di business.
Dati Essenziali da Segnalare
La documentazione deve comprendere dettagli rilevanti, tra cui:
- Date di inizio e fine (o migliori approssimazioni)
- Danno risultante e parti lese
- La catena di eventi che hanno portato all’incidente
- La versione specifica del modello coinvolta
- Descrizione del coinvolgimento del GPAISR
- Risposte previste o attuate
- Raccomandazioni per l’Ufficio per l’IA e le autorità nazionali
- Un’analisi della causa principale, che dettagli le uscite e i fattori contribuenti
- Eventuali near-miss noti
Tempistiche di Escalation e Notifica
Il Codice specifica scadenze rigorose per la segnalazione degli incidenti a seconda della gravità:
- Interruzione delle Infrastrutture Critiche: Notifica immediata, non oltre 2 giorni
- Grave Danno Fisico: Notifica immediata, non oltre 10 giorni
- Violazioni dei Diritti Fondamentali, Danni alla Proprietà/Ambientali: Notifica immediata, non oltre 15 giorni
- Incidenti di Cybersecurity, Esfiltrazione del Modello: Notifica immediata, non oltre 5 giorni
I rapporti iniziali devono coprire le informazioni principali. Sono richiesti rapporti intermedi, che dettagliano i progressi ogni 4 settimane fino alla risoluzione. Un rapporto finale completo è dovuto entro e non oltre 60 giorni dalla risoluzione dell’incidente. Le aziende devono anche decidere se presentare rapporti individuali o rapporti consolidati quando si verificano più incidenti.
Documentazione Proattiva e Conservazione
Mantenere una documentazione meticolosa di tutti i dati rilevanti per almeno 36 mesi dalla data della documentazione o dalla data dell’incidente grave segnalato che coinvolge il modello di intelligenza artificiale per scopi generali, a seconda di quale sia successiva.
Misure Correttive
Si prevede che i firmatari abbiano processi di risoluzione e comunicazione chiaramente definiti e scalabili. Questi dovrebbero essere in grado di applicare la necessaria mitigazione tecnica del rischio quando si verificano incidenti GPAISR o sono previsti.
In breve, trasparenza e documentazione sono fondamentali. Queste misure mirano a creare responsabilità sui rischi sistemici, promuovendo al contempo collaborazioni tra le parti interessate per la governance del GPAISR.
Quali sono gli obblighi relativi alle protezioni contro le ritorsioni per i lavoratori e come informarli?
L’AI Act sottolinea le protezioni contro le ritorsioni per i lavoratori che segnalano potenziali rischi sistemici associati a modelli di IA per scopi generali che possono essere classificati come aventi rischio sistemico (GPAISR).
Obblighi fondamentali
I firmatari del Codice di condotta sull’IA per scopi generali si impegnano a quanto segue:
- Non ritorsione: Astenersi da qualsiasi azione di ritorsione nei confronti dei lavoratori che forniscono informazioni riguardanti i rischi sistemici derivanti dai GPAISR dell’azienda. Ciò si applica se le informazioni vengono condivise con l’Ufficio per l’IA o le autorità nazionali competenti.
- Notifica annuale: Informare i lavoratori almeno una volta all’anno dell’esistenza di una casella di posta dell’Ufficio per l’IA (se esistente) designata per ricevere informazioni relative ai rischi sistemici.
Considerazioni importanti
La conformità agli impegni di non ritorsione non deve essere interpretata in modo da sostituire le leggi dell’Unione sul diritto d’autore e i diritti connessi. Nei casi di modelli di IA per scopi generali con rischio sistemico (GPAISR) è molto importante promuovere ulteriori analisi con l’Ufficio per l’IA.
Questo impegno mira a promuovere la trasparenza e la responsabilità, garantendo che gli individui all’interno delle organizzazioni possano sollevare preoccupazioni sulla sicurezza dell’IA senza timore di ritorsioni.
Quali sono gli aspetti cruciali che devono essere dettagliati dal modello all’ufficio AI affinché il modello soddisfi i requisiti del Codice?
Affinché i modelli di IA soddisfino i requisiti del Codice, i fornitori devono fornire all’Ufficio AI dettagli completi. Questi comprendono:
Trasparenza e Documentazione
I firmatari devono fornire una documentazione del modello di facile utilizzo, potenzialmente utilizzando un modulo di documentazione del modello. Questo include:
- Informazioni generali sul modello (ad esempio, nome del modello, versione, data di rilascio)
- Dettagli sulle proprietà del modello (architettura, modalità di input/output, dimensione)
- Informazioni sui canali di distribuzione e sulle licenze
- Politiche di utilizzo accettabile e usi previsti
- Specifiche per i processi di formazione e i dati utilizzati (comprese le misure per rilevare contenuti dannosi e pregiudizi).
- Risorse computazionali utilizzate durante la formazione.
- Ulteriori informazioni per i modelli AI di scopo generale con rischio sistemico, come strategie di valutazione, risultati di test avversari e dettagli sull’architettura del sistema.
Le informazioni devono essere presentate in modo proattivo per i fornitori di AI a valle, ma solo su richiesta dell’Ufficio AI e delle autorità nazionali competenti, garantendo una corretta base giuridica e necessità.
Tutti i dati condivisi richiedono una rigorosa adesione agli obblighi di riservatezza e alla protezione del segreto commerciale, come sottolineato nell’articolo 78.
Gestione del Rischio Sistemico (Applicabile a GPAISR)
Per i modelli ritenuti a rischio sistemico, è necessario presentare un quadro completo di sicurezza, che dettagli:
- Criteri di accettazione del rischio sistemico, compresi i livelli di rischio definiti da caratteristiche misurabili (capacità del modello, propensioni, risultati dannosi).
- Valutazioni dettagliate del rischio sistemico durante tutto il ciclo di vita del modello.
- Misure di mitigazione del rischio tecnico e di governance.
- Valutazioni periodiche dell’adeguatezza del quadro per valutarne l’efficacia e migliorare nel tempo.
- Rapporti sul modello di sicurezza: documentazione della valutazione del rischio, dei risultati della mitigazione e del processo decisionale. I dettagli del rapporto sul modello dovrebbero giustificare le decisioni di rilasciare il modello.
Segnalazione di Incidenti Gravi
Definire processi completi per:
- Tracciare e documentare le informazioni rilevanti sugli incidenti gravi, coprendo aspetti che vanno dalle date di inizio/fine dell’incidente all’analisi delle cause principali e alle misure correttive.
- Segnalare all’Ufficio AI dell’UE senza indebiti ritardi, con tempistiche sensibili alla gravità dell’incidente.
Trasparenza dei Processi
Il modello deve fornire:
- Una descrizione del processo decisionale (esterno o interno).
- Qualifiche, livelli di accesso e risorse per i team di valutazione del modello interni ed esterni.
- Collaborazione con altri stakeholder nella catena del valore dell’AI.
- Protezioni adeguate e di non ritorsione per i lavoratori che forniscono feedback all’Ufficio AI.
Ulteriori Aspetti di Conformità
Inoltre, è necessario seguire diversi requisiti chiave di notifica per garantire che l’Ufficio AI abbia informazioni adeguate sui modelli sviluppati dall’azienda:
- Notifica proattiva sui modelli qualificati, anche se destinati all’uso interno.
- Aggiornamenti tempestivi sulle modifiche al quadro e sulle valutazioni indipendenti.
- Trasparenza in merito alla condivisione di strumenti di sicurezza e delle migliori pratiche con la più ampia comunità AI.
I fornitori devono allocare risorse adeguate per la gestione del rischio sistemico. Ciò include garantire una sana cultura del rischio con responsabilità chiare in tutta l’organizzazione.
Tali obblighi sono integrati dall’implementazione delle misure contenute nella sezione Trasparenza, Diritto d’Autore o Sicurezza e Protezione in documenti di accompagnamento separati dal codice.
Quali sono i processi definiti per gli aggiornamenti del codice regolari e urgenti?
Il codice di condotta sull’IA per Scopi Generali proposto riconosce la necessità di agilità nella governance dell’IA. Poiché la tecnologia dell’IA continua a evolvere, il documento delinea meccanismi per la revisione regolare, l’adattamento e persino gli aggiornamenti di emergenza del Codice. Ciò garantisce che le sue disposizioni rimangano proporzionate ai rischi valutati e tecnologicamente rilevanti.
Revisione e Adattamento Regolari
Il Codice propone un ciclo di revisione regolare, che si verifica ogni due anni. Questo processo approfondito, che sarà promosso dall’Ufficio IA, consente una revisione completa del codice. Questa revisione è progettata per essere adattabile alle attuali migliori pratiche di IA, agli approcci internazionali e agli standard industriali in via di sviluppo.
Dopo ogni revisione, l’Ufficio IA confermerà l’adeguatezza del Codice per i firmatari.
Supporto all’Implementazione Continuo
Riconoscendo l’importanza di un chiarimento continuo, il documento prevede spazio per un supporto all’implementazione continuo tramite la guida dell’Ufficio IA. Come affermato nel preambolo del Codice, questa guida garantisce la coerenza tra i protocolli esistenti, le pratiche del mondo reale e le disposizioni di cui all’articolo 96, AI Act.
Aggiornamenti di Emergenza
Significativamente, la documentazione allude a meccanismi per gli aggiornamenti del codice di emergenza. Attivati da “una minaccia imminente di danni irreversibili su vasta scala”, questi aggiornamenti sarebbero emessi rapidamente per mitigare gli effetti negativi.
Oltre a tutti i passaggi e i requisiti sopra descritti, si raccomanda che:
- Gli aggiornamenti di emergenza siano soggetti a revisione da parte dell’Ufficio IA per confermare la prevenzione di danni irreversibili su vasta scala.
- L’Ufficio IA invita attivamente il contributo delle parti interessate sul meccanismo per questi aggiornamenti e suggerimenti su quali forum adatti per l’emanazione di aggiornamenti di emergenza al Codice.