Proposta di Regolamentazione dell’Intelligenza Artificiale nei Sistemi di Armi Autonome e Sorveglianza
Attualmente, si sta formulando una legislazione per stabilire regolamenti federali sull’uso dell’intelligenza artificiale (IA) nei sistemi di armi completamente autonome e nelle operazioni di sorveglianza di massa domestica. L’obiettivo è quello di imporre quelle che vengono descritte come misure di sicurezza di buon senso nell’uso militare dell’IA.
Contesto e Motivazione
Questa proposta emerge in un contesto di conflitto crescente tra l’amministrazione attuale e un noto sviluppatore di IA riguardo all’accesso del governo alla tecnologia dell’azienda. Si sta considerando l’inserimento di queste regolamentazioni all’interno del pacchetto di autorizzazione della difesa, poiché si ritiene che la legge annuale sulla difesa offra il quadro legislativo appropriato per introdurre le normative sull’IA.
Dettagli della Proposta
Il senatore che guida l’iniziativa sta contemplando l’uso della National Defense Authorization Act come veicolo per la legislazione. Recenti dichiarazioni da parte di vari membri del Senato indicano che è ragionevole aspettarsi che i contrattisti limitino determinate azioni all’interno del settore militare.
Un’importante azienda di IA ha rifiutato di concedere al Pentagono accesso illimitato ai suoi modelli di IA, affermando che non permetterà l’uso della sua tecnologia per la sorveglianza di massa dei cittadini o per lo sviluppo di armi autonome. Questo rifiuto ha suscitato forti desideri da parte del Dipartimento della Difesa di integrare senza problemi l’IA in tutte le operazioni militari.
Implicazioni e Rischi
Il conflitto tra il Pentagono e l’azienda evidenzia uno scontro fondamentale sui principi di governance dell’IA. La posizione dell’amministrazione attuale, che afferma che i compratori governativi hanno il controllo unilaterale sull’uso della tecnologia, riflette le normativi tradizionali nel settore della difesa. Tuttavia, il rifiuto dell’azienda di coopera rappresenta una nuova posizione aziendale che sostiene che i trasferimenti tecnologici devono essere accompagnati da limiti etici, soprattutto quando queste tecnologie potrebbero abilitare la sorveglianza di massa o armi autonome senza controllo umano.
Attualmente, non esiste un chiaro quadro normativo federale su come l’IA possa essere utilizzata nelle operazioni militari letali, costringendo le aziende a prendere decisioni unilaterali sulla partecipazione in base ai propri principi etici anziché su indicazioni normative.
Conclusione
Il progetto di legge sull’autorizzazione della difesa offre ai legislatori l’opportunità di codificare le salvaguardie per l’IA, ma la sua approvazione è incerta a causa dell’opposizione dell’amministrazione attuale e del controllo repubblicano su entrambe le camere. È probabile che ci saranno sfide legali in risposta alla classificazione dell’azienda come rischio per la catena di approvvigionamento, e ciò potrebbe influenzare la disponibilità di altre aziende di IA a collaborare con le agenzie governative.