La preservazione dei dati nell’era dell’IA generativa

È tempo di affrontare la preservazione dei prompt e degli output dell’IA generativa

Le tecnologie di intelligenza artificiale generativa (GAI), che creano testi e media basati sui dati su cui sono state addestrate, sollevano preoccupazioni legali riguardanti la privacy dei dati, la sicurezza dei dati e considerazioni di privilegio. In caso di discovery, i prompt e gli output dell’IA generativa possono essere considerati informazioni uniche che devono essere preservate per le controversie legali. Le organizzazioni devono considerare come preservare queste informazioni e se e come incorporare modifiche ai loro accordi ESI standard.

È imperativo che le organizzazioni dispongano di politiche di governance delle informazioni e di corsi di formazione in atto per tenere conto dell’uso degli strumenti GAI in tutto il loro business. Questo include la determinazione se i prompt e gli output generati dall’IA GAI siano considerati “documenti” e, in tal caso, l’aggiornamento delle politiche e dei programmi di conservazione dei documenti di conseguenza. È essenziale avere consulenti esperti specializzati nella discovery e nella governance delle informazioni dell’IA GAI per garantire che i prompt e gli output siano conservati quando necessario.

La creazione di record unici e nuovi grazie all’IA generativa

Ogni strumento GAI opera in modo unico in base alla sua configurazione e alla sua impostazione di archiviazione dei dati. I professionisti legali devono comprendere sia i tipi di dati creati sia i luoghi in cui i dati sono archiviati per ciascun strumento. Questi strumenti si stanno evolvendo rapidamente e possono differire notevolmente l’uno dall’altro, ed è compito dei praticanti accertare la forma e la funzione di un dato strumento, inclusi i luoghi in cui archivia i suoi prompt e output.

Ad esempio, un’applicazione che crea un riassunto in punti di una riunione in genere inizia creando una trascrizione di quella riunione, che poi analizza per produrre un riassunto. Dove verranno archiviati questi documenti? Nello spazio di archiviazione online dell’organizzatore della riunione, integrati in una rete aziendale, o distribuiti tra gli archivi dei partecipanti? Quanto a lungo verranno conservati questi record? Le risposte dipenderanno sia dalle configurazioni tecniche sia dalle politiche di conservazione applicabili dell’organizzazione.

I tribunali iniziano a affrontare il trattamento degli artefatti generati dall’IA

Nonostante gli strumenti GAI siano proliferati rapidamente negli ultimi anni, i tribunali e i contendenti stanno appena iniziando ad affrontarne l’uso e l’output. Nel caso Tremblay v. OpenAI del 2024, presso il Tribunale Distrettuale degli Stati Uniti per il Distretto Settentrionale della California, un gruppo di autori ha citato in giudizio OpenAI per violazione del diritto d’autore, sostenendo che ChatGPT fosse stato addestrato utilizzando i loro libri protetti da copyright.

OpenAI ha richiesto la discovery delle informazioni dell’account dei querelanti e dei prompt utilizzati nei test pre-processuali, inclusi gli output negativi che non riproducevano o riassumevano il lavoro dei querelanti. Il giudice magistrato ha accolto la richiesta, trovando che, sebbene le impostazioni dell’account e i risultati dei test negativi fossero considerati lavoro di fatto, i querelanti avessero rinunciato a questo includendo un insieme sostanziale di quei fatti nella loro denuncia e negli allegati.

Nella decisione riguardante la mozione dei querelanti per un’ingiunzione che contestava quell’ordine, il giudice distrettuale ha trovato che il magistrato avesse applicato erroneamente la legge, poiché i prompt erano interrogativi creati dai legali e riflettevano le loro impressioni e strategie mentali per interrogare ChatGPT. Il tribunale ha accolto la mozione dei querelanti per un’ingiunzione, negando la richiesta del convenuto di costringere la produzione di test negativi e documentazione del processo di test, ma ordinando ai querelanti di produrre i prompt e le impostazioni contabili utilizzate per generare gli esempi utilizzati nella loro denuncia.

Pratiche consigliate per garantire la preservazione appropriata e difensibile

I documenti e i dati creati con strumenti GAI possono essere rilevanti per controversie anticipate o in corso se sono pertinenti a rivendicazioni e difese e sono proporzionati alle esigenze del caso. I professionisti legali e di governance delle informazioni devono essere pronti a questa possibilità se i loro clienti utilizzano questi strumenti. Ecco alcune pratiche consigliate:

Il coinvolgimento precoce è fondamentale

I professionisti legali e di governance delle informazioni devono essere considerati soggetti essenziali da consultare quando un’organizzazione decide di adottare strumenti GAI. Se il dipartimento legale viene informato solo dopo che uno strumento è stato adottato – o peggio, è stato utilizzato per un po’ di tempo – possono sorgere ostacoli per garantire che i dati rilevanti siano preservati o per consigliare su considerazioni critiche come la protezione del privilegio avvocato-cliente e la riservatezza durante l’uso dello strumento.

Comprendere come lo strumento crea, salva e manipola i dati

I soggetti coinvolti nella governance legale e delle informazioni dovrebbero essere coinvolti anche nella selezione, test e distribuzione degli strumenti GAI per comprendere dove ciascuno strumento crea e archivia i documenti e i dati potenzialmente rilevanti. Un’organizzazione non può preservare dati rilevanti senza comprendere dove sono archiviati e come preservarli e recuperarli per scopi di discovery.

Le politiche di conservazione e di legal hold devono essere aggiornate e implementate

Le politiche di conservazione dei documenti potrebbero dover essere aggiornate per garantire che i documenti e i dati generati dall’IA GAI siano conservati per la durata appropriata in base alle esigenze aziendali e alla legge applicabile. Analogamente, le politiche e le notifiche di legal hold devono affrontare i nuovi tipi di dati creati dagli strumenti di IA per garantire che i dipendenti comprendano la necessità di preservazione.

La formazione degli utenti è fondamentale

Come qualsiasi strumento, i risultati e l’affidabilità degli strumenti GAI dipendono fortemente da come vengono utilizzati. Un robusto programma di formazione sull’IA GAI che enfatizzi non solo le funzionalità ma anche i rischi presentati dallo strumento dovrebbe essere un prerequisito per l’accesso degli utenti. Dato che gli strumenti di IA possono “allucinare” e generare documenti e dati che potrebbero non riflettere la realtà o gli input degli impiegati, esiste il rischio di creare involontariamente dati scoperti che sono inaccurati.

Conclusione

Come per qualsiasi tecnologia emergente, è essenziale valutare i rischi e gli obblighi che possono sorgere parallelamente ai benefici del suo utilizzo. Dalla vasta integrazione dell’IA GAI in un ambiente aziendale da parte dei professionisti della governance delle informazioni alla cura delle modifiche di un protocollo ESI da parte di consulenti esterni, l’introduzione dell’IA GAI in ambienti aziendali e pratiche legali rappresenta una sfida fondamentale che richiede un approccio riflessivo e completo.

More Insights

Regolamentazione dell’IA: Politiche di frammentazione e cattura

La nuova ricerca esplora come il comportamento strategico dei governi, delle aziende tecnologiche e di altri agenti plasmi l'economia politica della regolamentazione dell'intelligenza artificiale. In...

Dubai Cultura: Eccellenza nell’Intelligenza Artificiale

L'Autorità della Cultura e delle Arti di Dubai è stata premiata come vincitrice del Miglior Quadro di Governance dell'IA del 2025 durante il GovTech Innovation Forum & Awards. Questo riconoscimento...

Fiducia nell’AI: Soluzioni di Traffico Sicure per il Futuro

L'intelligenza artificiale sta diventando una parte centrale delle infrastrutture moderne, rendendo la sicurezza, la trasparenza e la responsabilità più critiche che mai. FLIR ha sviluppato un modello...

Nuove pressioni per regolamentare l’IA a livello nazionale

La proposta controversa di bloccare la regolamentazione a livello statale dell'intelligenza artificiale è fallita, aumentando la pressione per un'azione federale. Più di 20 stati, sia democratici che...

Legge Innovativa per la Governance dell’Intelligenza Artificiale nelle Filippine

Il rappresentante Brian Poe ha introdotto il Philippine Artificial Intelligence Governance Act, che mira a stabilire linee guida e regolamenti per l'uso sicuro ed efficace dell'intelligenza...

L’Ascesa dell’IA Generativa nella Certificazione di Rischio e Conformità

Nel 2025, le organizzazioni di tutto il mondo si trovano ad affrontare paesaggi normativi in continua espansione e preoccupazioni per la privacy dei dati. L'AI generativa sta emergendo come un partner...

Il colpo di Grok: Rischi normativi per la tecnologia globale

L'incidente di luglio 2025 che coinvolge l'indagine della Turchia su Grok, lo strumento di intelligenza artificiale integrato in X, segna un momento cruciale per le aziende tecnologiche globali...

Il colpo di Grok: Rischi normativi per la tecnologia globale

L'incidente di luglio 2025 che coinvolge l'indagine della Turchia su Grok, lo strumento di intelligenza artificiale integrato in X, segna un momento cruciale per le aziende tecnologiche globali...

Intelligenza Artificiale Responsabile: Pronti per il Futuro Normativo

L'intelligenza artificiale e le normative stanno avanzando rapidamente, portando a richieste di conformità complesse e in continua evoluzione a livello globale, nazionale e locale. L'adozione di...