La preservazione dei dati nell’era dell’IA generativa

È tempo di affrontare la preservazione dei prompt e degli output dell’IA generativa

Le tecnologie di intelligenza artificiale generativa (GAI), che creano testi e media basati sui dati su cui sono state addestrate, sollevano preoccupazioni legali riguardanti la privacy dei dati, la sicurezza dei dati e considerazioni di privilegio. In caso di discovery, i prompt e gli output dell’IA generativa possono essere considerati informazioni uniche che devono essere preservate per le controversie legali. Le organizzazioni devono considerare come preservare queste informazioni e se e come incorporare modifiche ai loro accordi ESI standard.

È imperativo che le organizzazioni dispongano di politiche di governance delle informazioni e di corsi di formazione in atto per tenere conto dell’uso degli strumenti GAI in tutto il loro business. Questo include la determinazione se i prompt e gli output generati dall’IA GAI siano considerati “documenti” e, in tal caso, l’aggiornamento delle politiche e dei programmi di conservazione dei documenti di conseguenza. È essenziale avere consulenti esperti specializzati nella discovery e nella governance delle informazioni dell’IA GAI per garantire che i prompt e gli output siano conservati quando necessario.

La creazione di record unici e nuovi grazie all’IA generativa

Ogni strumento GAI opera in modo unico in base alla sua configurazione e alla sua impostazione di archiviazione dei dati. I professionisti legali devono comprendere sia i tipi di dati creati sia i luoghi in cui i dati sono archiviati per ciascun strumento. Questi strumenti si stanno evolvendo rapidamente e possono differire notevolmente l’uno dall’altro, ed è compito dei praticanti accertare la forma e la funzione di un dato strumento, inclusi i luoghi in cui archivia i suoi prompt e output.

Ad esempio, un’applicazione che crea un riassunto in punti di una riunione in genere inizia creando una trascrizione di quella riunione, che poi analizza per produrre un riassunto. Dove verranno archiviati questi documenti? Nello spazio di archiviazione online dell’organizzatore della riunione, integrati in una rete aziendale, o distribuiti tra gli archivi dei partecipanti? Quanto a lungo verranno conservati questi record? Le risposte dipenderanno sia dalle configurazioni tecniche sia dalle politiche di conservazione applicabili dell’organizzazione.

I tribunali iniziano a affrontare il trattamento degli artefatti generati dall’IA

Nonostante gli strumenti GAI siano proliferati rapidamente negli ultimi anni, i tribunali e i contendenti stanno appena iniziando ad affrontarne l’uso e l’output. Nel caso Tremblay v. OpenAI del 2024, presso il Tribunale Distrettuale degli Stati Uniti per il Distretto Settentrionale della California, un gruppo di autori ha citato in giudizio OpenAI per violazione del diritto d’autore, sostenendo che ChatGPT fosse stato addestrato utilizzando i loro libri protetti da copyright.

OpenAI ha richiesto la discovery delle informazioni dell’account dei querelanti e dei prompt utilizzati nei test pre-processuali, inclusi gli output negativi che non riproducevano o riassumevano il lavoro dei querelanti. Il giudice magistrato ha accolto la richiesta, trovando che, sebbene le impostazioni dell’account e i risultati dei test negativi fossero considerati lavoro di fatto, i querelanti avessero rinunciato a questo includendo un insieme sostanziale di quei fatti nella loro denuncia e negli allegati.

Nella decisione riguardante la mozione dei querelanti per un’ingiunzione che contestava quell’ordine, il giudice distrettuale ha trovato che il magistrato avesse applicato erroneamente la legge, poiché i prompt erano interrogativi creati dai legali e riflettevano le loro impressioni e strategie mentali per interrogare ChatGPT. Il tribunale ha accolto la mozione dei querelanti per un’ingiunzione, negando la richiesta del convenuto di costringere la produzione di test negativi e documentazione del processo di test, ma ordinando ai querelanti di produrre i prompt e le impostazioni contabili utilizzate per generare gli esempi utilizzati nella loro denuncia.

Pratiche consigliate per garantire la preservazione appropriata e difensibile

I documenti e i dati creati con strumenti GAI possono essere rilevanti per controversie anticipate o in corso se sono pertinenti a rivendicazioni e difese e sono proporzionati alle esigenze del caso. I professionisti legali e di governance delle informazioni devono essere pronti a questa possibilità se i loro clienti utilizzano questi strumenti. Ecco alcune pratiche consigliate:

Il coinvolgimento precoce è fondamentale

I professionisti legali e di governance delle informazioni devono essere considerati soggetti essenziali da consultare quando un’organizzazione decide di adottare strumenti GAI. Se il dipartimento legale viene informato solo dopo che uno strumento è stato adottato – o peggio, è stato utilizzato per un po’ di tempo – possono sorgere ostacoli per garantire che i dati rilevanti siano preservati o per consigliare su considerazioni critiche come la protezione del privilegio avvocato-cliente e la riservatezza durante l’uso dello strumento.

Comprendere come lo strumento crea, salva e manipola i dati

I soggetti coinvolti nella governance legale e delle informazioni dovrebbero essere coinvolti anche nella selezione, test e distribuzione degli strumenti GAI per comprendere dove ciascuno strumento crea e archivia i documenti e i dati potenzialmente rilevanti. Un’organizzazione non può preservare dati rilevanti senza comprendere dove sono archiviati e come preservarli e recuperarli per scopi di discovery.

Le politiche di conservazione e di legal hold devono essere aggiornate e implementate

Le politiche di conservazione dei documenti potrebbero dover essere aggiornate per garantire che i documenti e i dati generati dall’IA GAI siano conservati per la durata appropriata in base alle esigenze aziendali e alla legge applicabile. Analogamente, le politiche e le notifiche di legal hold devono affrontare i nuovi tipi di dati creati dagli strumenti di IA per garantire che i dipendenti comprendano la necessità di preservazione.

La formazione degli utenti è fondamentale

Come qualsiasi strumento, i risultati e l’affidabilità degli strumenti GAI dipendono fortemente da come vengono utilizzati. Un robusto programma di formazione sull’IA GAI che enfatizzi non solo le funzionalità ma anche i rischi presentati dallo strumento dovrebbe essere un prerequisito per l’accesso degli utenti. Dato che gli strumenti di IA possono “allucinare” e generare documenti e dati che potrebbero non riflettere la realtà o gli input degli impiegati, esiste il rischio di creare involontariamente dati scoperti che sono inaccurati.

Conclusione

Come per qualsiasi tecnologia emergente, è essenziale valutare i rischi e gli obblighi che possono sorgere parallelamente ai benefici del suo utilizzo. Dalla vasta integrazione dell’IA GAI in un ambiente aziendale da parte dei professionisti della governance delle informazioni alla cura delle modifiche di un protocollo ESI da parte di consulenti esterni, l’introduzione dell’IA GAI in ambienti aziendali e pratiche legali rappresenta una sfida fondamentale che richiede un approccio riflessivo e completo.

More Insights

Microsoft e Meta: scelte opposte sul codice etico dell’IA

Microsoft è probabile che firmi il codice di condotta dell'Unione Europea per garantire la conformità con le normative sull'intelligenza artificiale, mentre Meta ha annunciato che non firmerà il...

Legge sull’IA in Colorado: un nuovo standard per il futuro

La recente spinta fallita da parte dei membri del Congresso per congelare le leggi sull'intelligenza artificiale a livello statale ha lasciato le aziende statunitensi con operazioni nazionali di...

Piano d’Azione per l’AI: Verso Etica e Innovazione

Il prossimo Piano d'azione sulla tecnologia AI 2026–2030 della Malesia rafforzerà le salvaguardie etiche e i quadri di governance riguardanti l'uso dell'intelligenza artificiale. Il Ministro Digitale...

Strategie e Politiche AI: Un Futuro Condiviso

Lo sviluppo di politiche e strategie responsabili per l'intelligenza artificiale (AI) deve avvenire simultaneamente piuttosto che in modo sequenziale. Questo è stato condiviso da un relatore durante...

Rischi sistemici dell’IA: Linee guida per la conformità alle normative europee

La Commissione Europea ha presentato linee guida per aiutare i modelli di intelligenza artificiale che presentano rischi sistemici a conformarsi alla regolamentazione dell'Unione Europea...

Kerala: Pioniere dell’AI Etica nell’Istruzione

Il Kerala sta emergendo come un leader globale nell'intelligenza artificiale etica e nell'istruzione, adottando un approccio che combina visione governativa, innovazione e impegno per l'equità...

Stati e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Le leggi sull'intelligenza artificiale negli Stati Uniti stanno rapidamente aumentando, poiché gli stati, come California e Colorado, stanno implementando norme per affrontare questioni come la...

Intelligenza Artificiale e Compliance: Rischi e Opportunità

L'IA nella compliance è qui e si integra nelle operazioni quotidiane di molte organizzazioni, migliorando le capacità di rilevamento e automatizzando compiti intensivi in termini di risorse. Tuttavia...

Censura alimentata dall’IA: la nuova era della regolamentazione in Europa

Le nuove norme "di sicurezza e protezione" dell'UE richiederanno alle aziende tecnologiche di censurare e moderare i contenuti sui modelli di intelligenza artificiale (IA) a uso generale per prevenire...