Politica di Responsabilità per l’Intelligenza Artificiale
La politica di responsabilità per l’intelligenza artificiale è diventata un argomento centrale nel dibattito pubblico e politico, specialmente con l’aumento dell’uso di sistemi di intelligenza artificiale (AI) in vari settori. Negli Stati Uniti, le agenzie governative e i vari attori del settore stanno lavorando per garantire che i sistemi AI siano legali e affidabili.
Assicurazione AI e Ecosistema di Responsabilità
Le iniziative di assicurazione AI devono essere parte di un più ampio ecosistema di responsabilità. È cruciale che le agenzie governative e gli altri portatori di interesse possano valutare se il sistema in esame:
- ha le affermazioni sui suoi attributi sostenute e/o
- rispetta i criteri di base per un’ “AI affidabile”.
In risposta a una richiesta di commento (RFC), sono stati esaminati vari aspetti da considerare prima e dopo il lancio dei sistemi di IA, come le condizioni necessarie per le valutazioni e le certificazioni.
Risposte e Impegni
Circa 1.440 commenti unici da parte di diversi portatori di interesse sono stati ricevuti, con una significativa partecipazione da parte di individui e organizzazioni. Tra questi, circa il 48% proveniva dall’industria, il 37% da organizzazioni no-profit e il 15% da enti di ricerca accademica.
La Amministrazione Biden-Harris ha intrapreso azioni per promuovere un’AI affidabile, ottenendo impegni da parte di importanti sviluppatori di AI per partecipare a una valutazione pubblica dei sistemi AI. Inoltre, l’amministrazione ha assicurato impegni volontari da parte di aziende leader nel settore per migliorare la fiducia e la sicurezza dei sistemi AI.
Ordine Esecutivo sull’AI
Recentemente, il Presidente Biden ha emesso un Ordine Esecutivo riguardante lo sviluppo e l’uso sicuro e affidabile dell’AI. Questo ordine mira a garantire che l’uso dell’AI sia responsabile, promuovendo l’innovazione, la competizione e la collaborazione per mantenere la leadership degli Stati Uniti nell’AI.
Responsabilità e Privacy
La questione della privacy e dell’uso dei dati personali nel training dei modelli AI è di grande interesse. Più del 90% dei commenti organizzativi ha sottolineato l’importanza della protezione dei dati per un’AI affidabile e responsabile.
È necessario implementare regole più forti e chiare per la protezione dei dati personali, attraverso la legislazione federale sulla privacy e altre azioni da parte delle agenzie federali.
Modelli AI Open Source
I modelli di AI open source e i modelli di fondazione, per i quali i pesi sono ampiamente disponibili, presentano questioni di responsabilità uniche. L’Ordine Esecutivo ha incaricato il Segretario al Commercio di raccogliere input e redigere un rapporto sui benefici e i rischi di tali modelli.
Conclusioni
In un contesto in cui l’AI sta rapidamente evolvendo, è fondamentale stabilire politiche di responsabilità chiare che assicurino l’uso sicuro e responsabile di queste tecnologie. La collaborazione tra il governo, il settore privato e le organizzazioni no-profit è essenziale per garantire che l’AI possa essere utilizzata a beneficio della società, minimizzando al contempo i rischi associati.