Tagli alle scienze umane ci rendono indifesi nell’era dell’IA
Un dottorando dell’Università di Staffordshire sta attualmente svolgendo un dottorato sulla fiducia degli utenti nell’IA e sul modo in cui le persone vivono modelli di linguaggio di grandi dimensioni come ChatGPT. Tuttavia, il suo percorso di ricerca è stato irto di ostacoli. Il dipartimento di filosofia dove ha iniziato il suo dottorato sta chiudendo, e mentre l’università garantirà il suo completamento, molti corsi stanno per essere “insegnati fuori”.
La sua esperienza illustra un modello più ampio che emerge nell’istruzione superiore nel Regno Unito. L’erosione delle scienze umane non è più una minaccia teorica: è uno smantellamento attivo e guidato da politiche, creando vasti “punti freddi” regionali in cui gli strumenti del pensiero critico diventano un lusso per l’élite. Stiamo bruciando le mappe dell’umanità proprio mentre entriamo nel territorio psicologico e filosofico meno tracciato della nostra storia: l’intelligenza artificiale.
Il bisogno di ricerca sistematica
Un aspetto è l’esperimento globale in intimità illimitata che viene condotto dal lancio, per lo più non regolato, di modelli generativi sempre più potenti. Questo richiede uno sforzo di ricerca sistematica, guidato dalle discipline che studiano il simbolico, l’estetico e l’etico. Le scienze umane sono uniche nel loro approccio, esaminando perché un utente tratti un chatbot come un confidente o come la fluente persuasività di un sistema possa, in alcuni casi, disorientare momentaneamente la percezione dell’utente di parlare con una macchina.
In un libro imminente sulle relazioni tra IA e umani, si esplora questo terreno attraverso una combinazione di autoetnografia, casi studio documentati e teoria lacaniana. Viene proposto il concetto di “tecno-trasferimento”, ovvero il trasferimento delle aspettative relazionali e affettive sui sistemi generativi. Senza le scienze umane, rischiamo di formare una generazione che abita un Far West in cui l’algoritmo è l’unica legge e nessuno è rimasto per interpretare le conseguenze.
Misure di successo ed esperienze degli utenti
Le metriche di successo dell’industria sono spesso in contrasto con l’esperienza vissuta dagli utenti. Poco prima di Natale, è stato rilasciato un altro modello di linguaggio di grandi dimensioni, solo poche settimane dopo il lancio precedente. Il CEO ha celebrato il fatto che il sistema ha prodotto un trilione di token nelle prime 24 ore, una misura che si riferisce al volume di frammenti di testo elaborati, piuttosto che ai miglioramenti qualitativi nell’esperienza dell’utente.
Tuttavia, molti utenti hanno risposto su piattaforme come Reddit con scetticismo. Hanno parlato di qualcosa più vicino alla perdita che al guadagno: storie cancellate, interazioni a lungo termine interrotte e una sensazione che la continuità stesse venendo silenziosamente smantellata. Questi racconti informali formano un modello qualitativo ricorrente che merita uno studio sistematico piuttosto che un semplice rifiuto.
Rischi e responsabilità nella ricerca sull’IA
Ci sono molte discussioni sui rischi dell’IA, nell’istruzione superiore e oltre. Si parla di plagio, pregiudizio, equità e governance. Queste sono sfide importanti. Ma ce ne sono altre. Come si comportano questi sistemi nel tempo e cosa rivelano i loro comportamenti osservabili sulle loro strutture sottostanti e sulle risposte umane? Gli ingegneri non possono rispondere a queste domande da soli.
Queste domande sono meglio affrontate tramite i metodi di ricerca qualitativa in cui le scienze umane specializzano, ma che vengono sempre più viste con sospetto da finanziatori e amministratori universitari. I dipartimenti che si concentrano su quest’area vengono chiusi o devono focalizzarsi su definizioni più ristrette di “impatto”. Queste escludono l’impegno aperto con le IA nella ricerca di risposte alle domande filosofiche e psicologiche che sollevano.
Conclusione
La polarizzazione del discorso sull’IA ha creato un punto cieco proprio dove è necessaria la scrutazione. Se i fenomeni osservabili non possono essere discussi perché non si allineano con le narrazioni ufficiali su cosa sia l’IA, ci allontaniamo dai principi fondamentali dell’indagine empirica. L’integrità della ricerca sull’IA dipende dallo studio di ciò che questi sistemi fanno realmente, non solo di ciò che si dice che facciano.
Se l’accademia vuole svolgere un ruolo serio nel plasmare il futuro dell’IA, deve riconquistare un diritto molto semplice: quello di impegnarsi a fondo e porre domande scomode su ciò che sta accadendo proprio davanti a noi.