Bannato ma Irremplazabile: La Storia di Claude e le Mosse Critiche
Negli ultimi tempi, la conversazione pubblica si è concentrata sulle tendenze di disinstallazione di ChatGPT e sull’aumento dell’adozione di Claude. Tuttavia, una storia più significativa si è svolta silenziosamente. Il 27 febbraio, Claude è stato vietato per l’uso federale a causa di preoccupazioni sulla catena di approvvigionamento. Tuttavia, poche ore dopo, è emerso che era stato comunque utilizzato nei flussi di lavoro di intelligence collegati agli attacchi in Iran.
Governance dell’IA e Implicazioni Etiche
Non ci sono stati dibattiti congressuali né spiegazioni pubbliche. Solo la necessità operativa che supera i confini delle politiche dichiarate. Questo è il modello emergente nella governance dell’IA: quadri costruiti per l’ottica di pace, con eccezioni create non appena la velocità, la capacità o il vantaggio strategico sono in gioco. I cittadini si aspettano sempre più garanzie etiche; le istituzioni, d’altro canto, priorizzano la flessibilità operativa.
Quando si guarda da una prospettiva più ampia, questo modello non è limitato ai governi. Si osserva lo stesso schema all’interno delle aziende quotidianamente. Il linguaggio di “principi”, “valori” e “responsabilità” si mantiene fino a quando non arriva la pressione operativa, momento in cui i calcoli cambiano. Anni di profitti record si concludono con licenziamenti di massa, e le persone un tempo considerate “famiglia” vengono trattate come semplici voci di bilancio.
Le Ultime Mosse nella Governance dell’IA
Questa settimana, i principali sviluppi nella governance dell’IA sono stati valutati su una scala da 0 a 100, dove 0 rappresenta il massimo sfruttamento e 100 il massimo di responsabilità. Le valutazioni di questa settimana sono scese a 56, rispetto al 68 della settimana precedente.
1. Claude vietato per uso federale, poi utilizzato negli attacchi in Iran
Un direttivo presidenziale ha designato Claude come rischio per la catena di approvvigionamento e ha ordinato alle agenzie federali di cessarne l’uso. Tuttavia, è emerso che è stato utilizzato per valutazioni di intelligence e identificazione di obiettivi durante gli attacchi in Iran.
2. OpenAI ottiene un accordo con il Pentagono, ma vieta la sorveglianza domestica
OpenAI ha raggiunto un accordo per distribuire modelli su reti classificate del Dipartimento della Difesa, aggiungendo clausole per vietare esplicitamente la sorveglianza domestica di massa dopo le critiche ricevute.
3. Block annuncia licenziamenti di circa 4.000 dipendenti a causa di ristrutturazione dell’IA
Block ha annunciato licenziamenti che riguardano circa il 40% della sua forza lavoro, poiché la dirigenza prioritizza un passaggio a team più piccoli e abilitati all’IA.
4. Il Massachusetts impiega ChatGPT in tutto il ramo esecutivo
Il governatore ha annunciato un rollout graduale di un assistente basato su ChatGPT per circa 40.000 dipendenti del ramo esecutivo, con garanzie per la privacy dei dati.
5. OpenAI e Microsoft si uniscono a una coalizione globale per la sicurezza dell’IA
OpenAI e Microsoft hanno promesso finanziamenti e supporto tecnico a un progetto di sicurezza dell’IA, unendosi a una coalizione internazionale focalizzata sulla ricerca di allineamento e sicurezza dell’IA.
Conclusione
Il momento silenzioso in cui Claude è stato etichettato come rischio per la catena di approvvigionamento e vietato per uso federale, solo per essere utilizzato poche ore dopo, rappresenta un’istantanea di dove vive realmente la governance dell’IA. Si crea un contrasto tra l’ideale di sicurezza e allineamento e la necessità operativa in situazioni di crisi.