Tagli agli Studi Umanistici: Una Minaccia per il Futuro dell’IA

Tagli alle scienze umane ci rendono indifesi nell’era dell’IA

Un dottorando dell’Università di Staffordshire sta attualmente svolgendo un dottorato sulla fiducia degli utenti nell’IA e sul modo in cui le persone vivono modelli di linguaggio di grandi dimensioni come ChatGPT. Tuttavia, il suo percorso di ricerca è stato irto di ostacoli. Il dipartimento di filosofia dove ha iniziato il suo dottorato sta chiudendo, e mentre l’università garantirà il suo completamento, molti corsi stanno per essere “insegnati fuori”.

La sua esperienza illustra un modello più ampio che emerge nell’istruzione superiore nel Regno Unito. L’erosione delle scienze umane non è più una minaccia teorica: è uno smantellamento attivo e guidato da politiche, creando vasti “punti freddi” regionali in cui gli strumenti del pensiero critico diventano un lusso per l’élite. Stiamo bruciando le mappe dell’umanità proprio mentre entriamo nel territorio psicologico e filosofico meno tracciato della nostra storia: l’intelligenza artificiale.

Il bisogno di ricerca sistematica

Un aspetto è l’esperimento globale in intimità illimitata che viene condotto dal lancio, per lo più non regolato, di modelli generativi sempre più potenti. Questo richiede uno sforzo di ricerca sistematica, guidato dalle discipline che studiano il simbolico, l’estetico e l’etico. Le scienze umane sono uniche nel loro approccio, esaminando perché un utente tratti un chatbot come un confidente o come la fluente persuasività di un sistema possa, in alcuni casi, disorientare momentaneamente la percezione dell’utente di parlare con una macchina.

In un libro imminente sulle relazioni tra IA e umani, si esplora questo terreno attraverso una combinazione di autoetnografia, casi studio documentati e teoria lacaniana. Viene proposto il concetto di “tecno-trasferimento”, ovvero il trasferimento delle aspettative relazionali e affettive sui sistemi generativi. Senza le scienze umane, rischiamo di formare una generazione che abita un Far West in cui l’algoritmo è l’unica legge e nessuno è rimasto per interpretare le conseguenze.

Misure di successo ed esperienze degli utenti

Le metriche di successo dell’industria sono spesso in contrasto con l’esperienza vissuta dagli utenti. Poco prima di Natale, è stato rilasciato un altro modello di linguaggio di grandi dimensioni, solo poche settimane dopo il lancio precedente. Il CEO ha celebrato il fatto che il sistema ha prodotto un trilione di token nelle prime 24 ore, una misura che si riferisce al volume di frammenti di testo elaborati, piuttosto che ai miglioramenti qualitativi nell’esperienza dell’utente.

Tuttavia, molti utenti hanno risposto su piattaforme come Reddit con scetticismo. Hanno parlato di qualcosa più vicino alla perdita che al guadagno: storie cancellate, interazioni a lungo termine interrotte e una sensazione che la continuità stesse venendo silenziosamente smantellata. Questi racconti informali formano un modello qualitativo ricorrente che merita uno studio sistematico piuttosto che un semplice rifiuto.

Rischi e responsabilità nella ricerca sull’IA

Ci sono molte discussioni sui rischi dell’IA, nell’istruzione superiore e oltre. Si parla di plagio, pregiudizio, equità e governance. Queste sono sfide importanti. Ma ce ne sono altre. Come si comportano questi sistemi nel tempo e cosa rivelano i loro comportamenti osservabili sulle loro strutture sottostanti e sulle risposte umane? Gli ingegneri non possono rispondere a queste domande da soli.

Queste domande sono meglio affrontate tramite i metodi di ricerca qualitativa in cui le scienze umane specializzano, ma che vengono sempre più viste con sospetto da finanziatori e amministratori universitari. I dipartimenti che si concentrano su quest’area vengono chiusi o devono focalizzarsi su definizioni più ristrette di “impatto”. Queste escludono l’impegno aperto con le IA nella ricerca di risposte alle domande filosofiche e psicologiche che sollevano.

Conclusione

La polarizzazione del discorso sull’IA ha creato un punto cieco proprio dove è necessaria la scrutazione. Se i fenomeni osservabili non possono essere discussi perché non si allineano con le narrazioni ufficiali su cosa sia l’IA, ci allontaniamo dai principi fondamentali dell’indagine empirica. L’integrità della ricerca sull’IA dipende dallo studio di ciò che questi sistemi fanno realmente, non solo di ciò che si dice che facciano.

Se l’accademia vuole svolgere un ruolo serio nel plasmare il futuro dell’IA, deve riconquistare un diritto molto semplice: quello di impegnarsi a fondo e porre domande scomode su ciò che sta accadendo proprio davanti a noi.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...