È tempo di affrontare la preservazione dei prompt e degli output dell’IA generativa
Le tecnologie di intelligenza artificiale generativa (GAI), che creano testi e media basati sui dati su cui sono state addestrate, sollevano preoccupazioni legali riguardanti la privacy dei dati, la sicurezza dei dati e considerazioni di privilegio. In caso di discovery, i prompt e gli output dell’IA generativa possono essere considerati informazioni uniche che devono essere preservate per le controversie legali. Le organizzazioni devono considerare come preservare queste informazioni e se e come incorporare modifiche ai loro accordi ESI standard.
È imperativo che le organizzazioni dispongano di politiche di governance delle informazioni e di corsi di formazione in atto per tenere conto dell’uso degli strumenti GAI in tutto il loro business. Questo include la determinazione se i prompt e gli output generati dall’IA GAI siano considerati “documenti” e, in tal caso, l’aggiornamento delle politiche e dei programmi di conservazione dei documenti di conseguenza. È essenziale avere consulenti esperti specializzati nella discovery e nella governance delle informazioni dell’IA GAI per garantire che i prompt e gli output siano conservati quando necessario.
La creazione di record unici e nuovi grazie all’IA generativa
Ogni strumento GAI opera in modo unico in base alla sua configurazione e alla sua impostazione di archiviazione dei dati. I professionisti legali devono comprendere sia i tipi di dati creati sia i luoghi in cui i dati sono archiviati per ciascun strumento. Questi strumenti si stanno evolvendo rapidamente e possono differire notevolmente l’uno dall’altro, ed è compito dei praticanti accertare la forma e la funzione di un dato strumento, inclusi i luoghi in cui archivia i suoi prompt e output.
Ad esempio, un’applicazione che crea un riassunto in punti di una riunione in genere inizia creando una trascrizione di quella riunione, che poi analizza per produrre un riassunto. Dove verranno archiviati questi documenti? Nello spazio di archiviazione online dell’organizzatore della riunione, integrati in una rete aziendale, o distribuiti tra gli archivi dei partecipanti? Quanto a lungo verranno conservati questi record? Le risposte dipenderanno sia dalle configurazioni tecniche sia dalle politiche di conservazione applicabili dell’organizzazione.
I tribunali iniziano a affrontare il trattamento degli artefatti generati dall’IA
Nonostante gli strumenti GAI siano proliferati rapidamente negli ultimi anni, i tribunali e i contendenti stanno appena iniziando ad affrontarne l’uso e l’output. Nel caso Tremblay v. OpenAI del 2024, presso il Tribunale Distrettuale degli Stati Uniti per il Distretto Settentrionale della California, un gruppo di autori ha citato in giudizio OpenAI per violazione del diritto d’autore, sostenendo che ChatGPT fosse stato addestrato utilizzando i loro libri protetti da copyright.
OpenAI ha richiesto la discovery delle informazioni dell’account dei querelanti e dei prompt utilizzati nei test pre-processuali, inclusi gli output negativi che non riproducevano o riassumevano il lavoro dei querelanti. Il giudice magistrato ha accolto la richiesta, trovando che, sebbene le impostazioni dell’account e i risultati dei test negativi fossero considerati lavoro di fatto, i querelanti avessero rinunciato a questo includendo un insieme sostanziale di quei fatti nella loro denuncia e negli allegati.
Nella decisione riguardante la mozione dei querelanti per un’ingiunzione che contestava quell’ordine, il giudice distrettuale ha trovato che il magistrato avesse applicato erroneamente la legge, poiché i prompt erano interrogativi creati dai legali e riflettevano le loro impressioni e strategie mentali per interrogare ChatGPT. Il tribunale ha accolto la mozione dei querelanti per un’ingiunzione, negando la richiesta del convenuto di costringere la produzione di test negativi e documentazione del processo di test, ma ordinando ai querelanti di produrre i prompt e le impostazioni contabili utilizzate per generare gli esempi utilizzati nella loro denuncia.
Pratiche consigliate per garantire la preservazione appropriata e difensibile
I documenti e i dati creati con strumenti GAI possono essere rilevanti per controversie anticipate o in corso se sono pertinenti a rivendicazioni e difese e sono proporzionati alle esigenze del caso. I professionisti legali e di governance delle informazioni devono essere pronti a questa possibilità se i loro clienti utilizzano questi strumenti. Ecco alcune pratiche consigliate:
Il coinvolgimento precoce è fondamentale
I professionisti legali e di governance delle informazioni devono essere considerati soggetti essenziali da consultare quando un’organizzazione decide di adottare strumenti GAI. Se il dipartimento legale viene informato solo dopo che uno strumento è stato adottato – o peggio, è stato utilizzato per un po’ di tempo – possono sorgere ostacoli per garantire che i dati rilevanti siano preservati o per consigliare su considerazioni critiche come la protezione del privilegio avvocato-cliente e la riservatezza durante l’uso dello strumento.
Comprendere come lo strumento crea, salva e manipola i dati
I soggetti coinvolti nella governance legale e delle informazioni dovrebbero essere coinvolti anche nella selezione, test e distribuzione degli strumenti GAI per comprendere dove ciascuno strumento crea e archivia i documenti e i dati potenzialmente rilevanti. Un’organizzazione non può preservare dati rilevanti senza comprendere dove sono archiviati e come preservarli e recuperarli per scopi di discovery.
Le politiche di conservazione e di legal hold devono essere aggiornate e implementate
Le politiche di conservazione dei documenti potrebbero dover essere aggiornate per garantire che i documenti e i dati generati dall’IA GAI siano conservati per la durata appropriata in base alle esigenze aziendali e alla legge applicabile. Analogamente, le politiche e le notifiche di legal hold devono affrontare i nuovi tipi di dati creati dagli strumenti di IA per garantire che i dipendenti comprendano la necessità di preservazione.
La formazione degli utenti è fondamentale
Come qualsiasi strumento, i risultati e l’affidabilità degli strumenti GAI dipendono fortemente da come vengono utilizzati. Un robusto programma di formazione sull’IA GAI che enfatizzi non solo le funzionalità ma anche i rischi presentati dallo strumento dovrebbe essere un prerequisito per l’accesso degli utenti. Dato che gli strumenti di IA possono “allucinare” e generare documenti e dati che potrebbero non riflettere la realtà o gli input degli impiegati, esiste il rischio di creare involontariamente dati scoperti che sono inaccurati.
Conclusione
Come per qualsiasi tecnologia emergente, è essenziale valutare i rischi e gli obblighi che possono sorgere parallelamente ai benefici del suo utilizzo. Dalla vasta integrazione dell’IA GAI in un ambiente aziendale da parte dei professionisti della governance delle informazioni alla cura delle modifiche di un protocollo ESI da parte di consulenti esterni, l’introduzione dell’IA GAI in ambienti aziendali e pratiche legali rappresenta una sfida fondamentale che richiede un approccio riflessivo e completo.