Grok è in, l’etica è fuori nella nuova strategia di accelerazione dell’IA del Pentagono
La terza strategia di accelerazione dell’IA del Pentagono in quattro anni prevede sette “progetti di riferimento” che “sbloccheranno abilitatori fondamentali critici” per altri sforzi militari statunitensi, ha annunciato il dipartimento.
Il documento di sei pagine ordina anche ai vari componenti del dipartimento di realizzare un obiettivo di quattro anni per rendere i loro dati centralmente disponibili per l’addestramento e l’analisi dell’IA. Non menziona l’uso etico dell’IA e suscita sospetti sul concetto di responsabilità dell’IA, vietando l’uso di modelli che incorporano “tuning ideologico” legato a diversità, equità e inclusione (DEI).
Inoltre, è stato annunciato che le reti del Pentagono, comprese quelle classificate, consentiranno l’accesso a Grok, il chatbot di proprietà di Elon Musk, noto per la sua inclinazione partigiana e la sua disponibilità a creare immagini sessualmente esplicite di minori.
Dettagli della nuova strategia
La nuova strategia presenta molte somiglianze rispetto al suo predecessore dell’amministrazione Biden del 2023, che enfatizzava anche l’adozione rapida di modelli di IA disponibili commercialmente attraverso il militare. Tuttavia, la nuova strategia offre percorsi molto più specifici per tale adozione in varie attività militari.
Un progetto chiamato “Swarms Forge” scoprirà, testerà e scalerà nuovi modi di utilizzare l’IA in combattimento. Un altro progetto mira a incorporare rapidamente l’IA agentica per la “gestione della battaglia abilitata e il supporto decisionale”. Un ulteriore progetto promuoverà l’IA nella pianificazione degli scenari.
Un progetto legato all’intelligence mira a “trasformare l’intelligence in armi in ore, non anni”; un altro rende la pianificazione della postura più “dinamica”. Inoltre, si prevede che strumenti di IA, inclusi Grok e Google Gemini, siano disponibili per il personale del dipartimento a livelli di classificazione “Information Level (IL-5) e superiori”.
Implicazioni e rischi
Forse il punto più significativo della nuova strategia è l’imposizione di un mandato per eliminare i “bloccanti” alla condivisione dei dati all’interno del dipartimento e istituire sistemi ad architettura aperta, una mossa generalmente vista come favorevole alle startup e all’innovazione più rapida.
Tra questi ci sono “IA responsabile”, considerazioni etiche e DEI. Sotto una sezione intitolata “Chiarire l’IA ‘Responsabile’ al Dipartimento della Guerra” si dichiara: “Diversità, Equità e Inclusione e ideologia sociale non hanno posto nel DoW”.
La strategia impone anche che il sottosegretario alla difesa per la ricerca e l’ingegneria debba “incorporare il linguaggio standard di ‘uso lecito’ in qualsiasi contratto DoW attraverso il quale vengono acquisiti servizi di IA entro 180 giorni”. Ciò significa che qualsiasi uso dell’IA deve soddisfare solo il criterio legale usato dal Dipartimento per l’uso della forza in generale, umano o meno.
Conclusione
Il Pentagono lancia la strategia in un momento in cui Russia e Cina accelerano la propria adozione dell’IA, ma anche quando la fiducia pubblica nell’IA sta crollando in tutto lo spettro politico statunitense. Arriva anche mentre molti alleati europei si stanno allontanando dalle aziende tecnologiche statunitensi a causa dell’aggressività dell’amministrazione nei confronti delle democrazie.