Perché la pubblicazione accademica ha bisogno di un organismo di governance neutrale per l’era dell’IA
In risposta ai cambiamenti provocati dall’IA, il sistema di comunicazione accademica ha superato una soglia strutturale. I meccanismi che regolavano la fiducia, la correzione e l’autorità nell’era della stampa e del digitale iniziale non sono più sufficienti in un mondo in cui i sistemi di intelligenza artificiale elaborano e ridistribuiscono porzioni enormi del record accademico.
I problemi attuali
Le pratiche di ritrattazione, correzione e controllo delle versioni, che un tempo erano gestibili, ora si sono amplificate. Un articolo ritirato, una volta, veniva segnalato in un numero successivo o annotato fisicamente dai bibliotecari. Oggi, un articolo valido o non valido, una volta inghiottito in un corpus di addestramento, diventa parte di un substrato computazionale che non può essere modificato senza conseguenze. Gli errori non sono più localizzati; si propagano.
La vera questione è un fallimento di governance. L’ecosistema della pubblicazione accademica ha fatto affidamento su una federazione di editori, biblioteche e servizi di indicizzazione per gestire la fiducia, ma queste autorità non sono progettate per la governance automatica. Il risultato è un sistema in cui ogni attore definisce “verità”, “fiducia” e “affidabilità” in modo diverso, il che non può funzionare in un ambiente di ricerca guidato dall’IA.
Le soluzioni già esistenti
Il settore accademico ha già dimostrato di saper costruire infrastrutture globali e neutre quando necessario. Sono stati creati sistemi come Crossref e ORCID per risolvere problemi di citazione e identità. Questi sistemi non appartengono a un singolo editore, ma sono governati dalla comunità e creano una verità condivisa e leggibile dalle macchine.
La necessità di un nuovo organismo di governance
È necessaria una nuova organizzazione di governance neutrale e senza scopo di lucro per i dati accademici nell’era dell’IA, in grado di definire, certificare e far rispettare gli standard su come i contenuti accademici sono etichettati, trasmessi e utilizzati dalle macchine. Questa organizzazione deve rispondere a domande cruciali come: è stato ritirato questo articolo? È stato corretto? Quale versione è autorevole? Quali dati sono approvati per l’addestramento dei modelli?
Implicazioni e rischi
Se non si agisce, ci ritroveremo in un futuro frammentato, con ciascun fornitore di IA che avrà la propria definizione di “dati puliti”. Le pubblicazioni emetteranno segnali di ritrattazione diversi e gli utenti non saranno in grado di confrontare o verificare i risultati attraverso i vari sistemi. Ciò potrebbe portare a un aumento delle controversie legali e a una diminuzione della credibilità della scienza assistita dall’IA.
Conclusione
L’IA non ha distrutto la pubblicazione accademica, ma ha costretto il settore a maturare. La vera sfida è se l’industria risponderà costruendo una governance reale o continuerà a pretendere che le pratiche attuali siano sufficienti in un mondo guidato dalle macchine.