Scontro tra Anthropic e il Pentagono sulla Politica dell’IA
Anthropic ha intentato una causa contro il Dipartimento della Difesa degli Stati Uniti dopo essere stata etichettata come “rischio per la catena di approvvigionamento”, una designazione che blocca di fatto i contraenti militari dall’utilizzare i suoi modelli di intelligenza artificiale. La controversia si è rapidamente trasformata in uno scontro più ampio tra la Silicon Valley e Washington su come l’intelligenza artificiale dovrebbe essere utilizzata nei sistemi di sicurezza nazionale.
Origine della Controversia
La controversia è iniziata durante il rinnovo dei contratti del Pentagono riguardanti strumenti di IA utilizzati per analisi classificate e supporto decisionale. Il modello di punta di Anthropic, Claude, era stato precedentemente utilizzato in alcuni sistemi governativi.
Le trattative si sono bloccate quando Anthropic ha insistito su rigorosi standard etici, che includevano divieti espliciti sulla sorveglianza domestica di massa e sull’uso di armi letali completamente autonome senza supervisione umana.
Posizione di Anthropic
Anthropic ha sostenuto che queste condizioni riflettevano il suo approccio orientato alla sicurezza nello sviluppo dell’IA, in linea con l’enfasi del CEO sulla governance responsabile dell’intelligenza artificiale.
Il 27 febbraio 2026, il Segretario alla Difesa ha formalmente designato Anthropic come rischio per la catena di approvvigionamento. Questa classificazione, solitamente riservata a entità legate a avversari stranieri, impedisce ai contraenti del Pentagono di lavorare con la tecnologia dell’azienda.
Reazioni nel Settore Tecnologico
La decisione ha suscitato forti reazioni in tutto il settore tecnologico. Un altro attore del settore ha presto ottenuto un accordo con il Pentagono del valore di circa 200 milioni di dollari, affermando che i suoi sistemi includono salvaguardie integrate contro l’abuso.
Tuttavia, l’accordo ha suscitato proteste interne tra alcuni dipendenti, che hanno richiesto limiti etici più severi per le applicazioni militari.
Implicazioni e Rischi
Gli analisti affermano che la battaglia legale potrebbe ridefinire il modo in cui i governi e le aziende di IA collaborano, evidenziando la tensione tra le priorità della sicurezza nazionale e la responsabilità aziendale nella corsa all’IA in rapida evoluzione.
Conclusione
La disputa tra Anthropic e il Pentagono rappresenta un momento cruciale nel dibattito sulla governance dell’IA, sollevando questioni fondamentali riguardo all’uso etico e responsabile della tecnologia nel contesto della sicurezza nazionale.