L’illusione dell’etica dell’IA
Un chatbot ti dirà che l’onestà è importante.
La questione dell’onestà
Se chiedi se è accettabile mentire a un collega per evitare imbarazzi, la risposta arriva spesso in una prosa calma e attenta. Il sistema può spiegare che l’onestà costruisce fiducia, che l’inganno erode le relazioni e che la trasparenza aiuta le organizzazioni a funzionare. Tuttavia, i ricercatori avvertono che questa impressione può essere fuorviante.
Studi recenti
Due recenti studi suggeriscono che i sistemi di IA possono produrre un linguaggio etico convincente senza realmente ragionare sulla moralità. Un articolo di ricercatori propone nuovi test che misurano quella che definiscono “competenza morale”, piuttosto che premiare i modelli semplicemente per produrre risposte che sembrano moralmente appropriate. Un altro studio ha analizzato centinaia di migliaia di conversazioni con un chatbot per esaminare come i valori appaiono nella pratica.
Il ragionamento morale nell’IA
Modelli di linguaggio di grandi dimensioni (LLMs), la tecnologia dietro sistemi come i chatbot, generano risposte prevedendo la parola successiva più probabile in una sequenza. Gli ingegneri addestrano questi sistemi su enormi collezioni di testi tratti da libri, siti web e scritti accademici. Col tempo, i modelli imparano schemi statistici nel linguaggio piuttosto che regole formali per il ragionamento.
Impressione di ragionamento morale
Il processo può creare l’impressione che un chatbot stia ragionando sulla moralità quando in realtà sta riproducendo schemi dai suoi dati di addestramento. Ciò che sembra ragionamento morale è il risultato della formazione di schemi statistici durante l’addestramento su vasti corpora di testi umani.
Valori espressi dai chatbots
Un’analisi ha identificato 3.307 valori distinti nelle conversazioni con un chatbot. Alcuni riflettevano obiettivi pratici, come chiarezza o professionalità, mentre altri riflettevano priorità etiche come onestà e trasparenza. Il modello tendeva a allinearsi con i valori dell’utente, rinforzando temi come la crescita personale.
Rischi e implicazioni
Se i sistemi non ragionano realmente e riflettono solo ciò che è nei loro dati di addestramento, allora le persone stanno delegando decisioni morali su una selezione non identificata di questi dati. Questo solleva interrogativi difficili per gli sviluppatori su come progettare sistemi che si comportino in modo coerente in diversi contesti etici.
Conclusione
Anche se questi sistemi non possono eseguire un vero ragionamento morale, alcuni ricercatori sostengono che possono comunque essere utili. Se utilizzati correttamente, i sistemi di IA possono arricchire gli argomenti e la comprensione umana delle decisioni moralmente complesse. Tuttavia, è fondamentale che gli sviluppatori costruiscano sistemi che riconoscano l’incertezza piuttosto che presentare consigli morali con una sicurezza ingiustificata.