La rottura di Anthropic con il Pentagono accende il dibattito sull’etica dell’IA
ANALISI: Dopo aver rifiutato le richieste del Pentagono legate a armi autonome e sorveglianza, la posizione di Anthropic ha intensificato il dibattito sull’etica dell’IA, riecheggiando recenti avvertimenti del Vaticano.
In mezzo all’esplosione dell’intelligenza artificiale (IA) negli ultimi anni, i cattolici hanno costantemente chiesto l’inclusione di salvaguardie socialmente responsabili, limiti e principi etici all’interno della tecnologia.
Ora, uno sviluppatore di IA di spicco che sta cercando di fare ciò si è trovato in una grande disputa con il governo degli Stati Uniti, alimentando un acceso dibattito sulle dimensioni etiche e morali dello sviluppo dell’IA.
Il contesto della disputa
Un’importante startup ha creato un assistente IA basato su un modello di linguaggio. Questa tecnologia ha già trovato ampia adozione in vari settori della società, comprese aziende e scuole. Fondata in parte da ex membri di un gigante dell’industria, questa azienda si è posizionata come l’opzione sicura e responsabile nell’ecosistema dell’IA; il suo CEO spesso promuove lo sviluppo di “guardrails” per proteggere l’umanità da un’IA non controllata.
Il governo degli Stati Uniti, nel frattempo, sta esplorando l’uso dell’IA nella difesa nazionale. Quattro grandi aziende di IA hanno collaborato con il Pentagono, con contratti molto lucrativi in gioco.
Grazie all’approccio relativamente cauto da parte degli sviluppatori, il prodotto IA è stato il primo ad essere autorizzato sulle reti classificate del Pentagono. Le sue capacità analitiche sono state utilizzate per supportare operazioni militari di alto profilo.
Anthropic era in trattative con il Pentagono come parte di una negoziazione contrattuale di 200 milioni di dollari, ma i colloqui sono naufragati in modo drammatico.
Le implicazioni etiche
Il Segretario alla Difesa ha fatto pressione affinché l’azienda consentisse al governo di utilizzare la tecnologia IA per “qualsiasi uso legittimo”, comprese le armi autonome e la sorveglianza di massa dei cittadini statunitensi. Quando Anthropic ha rifiutato di consentire tali usi del suo prodotto, il governo ha preso la misura senza precedenti di designare l’azienda come un “rischio per la catena di approvvigionamento”.
Questa designazione ha costretto tutte le agenzie governative a interrompere l’uso della tecnologia di Anthropic entro sei mesi. Nel frattempo, un concorrente ha già siglato un accordo con il governo, senza le stesse salvaguardie che Anthropic cercava.
Nonostante l’apparente nobiltà della posizione di Anthropic, potrebbe rivelarsi infruttuosa, poiché la nuova vendetta del governo potrebbe portare all’annientamento finanziario dell’azienda.
Le posizioni del Vaticano
Negli ultimi anni, il Vaticano ha ripetutamente espresso opposizione all’idea di potenziare sistemi di armi computerizzati per operare in modo autonomo. Tali sistemi sono considerati una “causa di grave preoccupazione etica” a causa della loro mancanza di capacità umana unica per il giudizio morale.
Il Vaticano ha anche espresso preoccupazione per l’uso dell’IA nella sorveglianza, dichiarando che l’IA utilizzata per sfruttare o restringere la libertà è ingiustificabile.
Esperti di etica dell’IA hanno espresso apprezzamento per la scelta di Anthropic, che in alcuni aspetti si allinea con le richieste morali del Vaticano. È tempo di iniziare a mettere in primo piano le priorità, domandandosi quali siano gli usi benefici e morali di queste tecnologie.
Conclusione
Il gesto di Anthropic può essere visto come un tentativo coraggioso di affrontare questioni etiche in un momento critico. Anche se l’azienda potrebbe affrontare gravi conseguenze finanziarie, la sua decisione di non compromettere i principi etici potrebbe stimolare un dibattito più ampio sull’uso responsabile dell’IA.