Legge sui Guardrails dell’Intelligenza Artificiale
Oggi è stata introdotta la legge sull’Intelligenza Artificiale per stabilire limiti chiari su come il Dipartimento della Difesa può utilizzare l’IA. Questa legge definisce guardrails in tre aree principali.
Divieto di uso di armi autonome
La legge vieta al Dipartimento della Difesa di utilizzare armi autonome per uccidere senza l’autorizzazione umana. La responsabilità umana è al centro del comando e controllo militare, assicurando che siano gli esseri umani a decidere quando e come utilizzare sistemi d’arma letali autonomi.
Protezione della privacy dei cittadini americani
La legge protegge i diritti costituzionali e la privacy degli individui, impedendo l’uso dell’IA per la sorveglianza di massa domestica da parte del governo. Questo rafforza le protezioni già esistenti contro l’abuso di autorità da parte del governo.
Controllo sul lancio di armi nucleari
La legge stabilisce che la decisione di lanciare armi nucleari spetti esclusivamente al Comandante in Capo, non a macchine o sistemi automatizzati. Le armi nucleari rappresentano capacità strategiche con potenziale di distruzione di massa e richiedono una supervisione umana.
Questi salvaguardie saranno applicate durante l’intero ciclo di vita dell’IA, dalla sviluppo e testing alla distribuzione e monitoraggio continuo post-deploy.