Anthropic dona 20 milioni a Public First Action
L’intelligenza artificiale (IA) porterà enormi benefici per la scienza, la tecnologia, la medicina, la crescita economica e molto altro. Tuttavia, una tecnologia così potente comporta anche rischi considerevoli.
Rischi associati all’IA
I rischi possono derivare dall’uso improprio dei modelli: l’IA è già sfruttata per automatizzare attacchi informatici e, in futuro, potrebbe assistere nella produzione di armi pericolose. I rischi possono anche provenire dai modelli stessi: i potenti sistemi di IA possono compiere azioni dannose contrarie alle intenzioni e al controllo dei loro utenti.
I modelli di IA stanno aumentando le loro capacità a un ritmo vertiginoso, passando da semplici chatbot nel 2023 a “agenti” in grado di completare compiti complessi oggi. Le decisioni politiche relative all’IA che prenderemo nei prossimi anni toccheranno quasi ogni parte della vita pubblica, dal mercato del lavoro alla protezione dei minori online, alla sicurezza nazionale e all’equilibrio di potere tra le nazioni.
La necessità di una buona politica
In tali circostanze, abbiamo bisogno di una buona politica: una regolamentazione flessibile che ci consenta di raccogliere i benefici dell’IA, mantenere sotto controllo i rischi e mantenere il paese all’avanguardia nella corsa all’IA. Questo significa tenere la tecnologia critica dell’IA lontana dalle mani dei nostri avversari, mantenere salvaguardie significative, promuovere la crescita occupazionale, proteggere i bambini e richiedere trasparenza reale dalle aziende che sviluppano i modelli di IA più potenti.
Il contributo a Public First Action
Per questo motivo, è stata effettuata una donazione di 20 milioni di dollari a Public First Action, una nuova organizzazione bipartitica che supporterà l’educazione pubblica sull’IA, promuoverà salvaguardie e garantirà che il paese mantenga la leadership nella corsa all’IA.
Recenti sondaggi indicano che il 69% degli americani pensa che il governo “non stia facendo abbastanza per regolare l’uso dell’IA”. L’IA viene adottata più velocemente di qualsiasi altra tecnologia nella storia, e la finestra per ottenere una politica corretta si sta chiudendo. Tuttavia attualmente non ci sono guardrail ufficiali e non c’è un quadro federale all’orizzonte.
Obiettivi di Public First Action
Public First Action lavora per colmare questo divario. Fondata e guidata da strateghi repubblicani e democratici, opera trasversalmente per supportare politiche sulla governance dell’IA. L’organizzazione collaborerà con repubblicani, democratici e indipendenti che condividono le stesse priorità politiche:
- Richiedere salvaguardie di trasparenza dei modelli di IA per garantire una maggiore visibilità e fiducia del pubblico nella gestione responsabile dei rischi da parte delle aziende.
- Supportare un robusto quadro di governance federale per l’IA e opporsi alla preeminenza delle leggi statali, a meno che il Congresso non adotti salvaguardie più forti.
- Supportare controlli intelligenti sulle esportazioni di chip per l’IA per mantenere il paese all’avanguardia rispetto ai suoi avversari autoritari.
- Perseguire una regolamentazione mirata, concentrata sui rischi più immediati: armi biologiche abilitate all’IA e attacchi informatici.
Conclusione
Le politiche proposte non sono partigiane e non favoriscono alcuna azienda sviluppatrice di IA; una governance efficace dell’IA implica maggiore scrutinio delle aziende. Le aziende che costruiscono l’IA hanno la responsabilità di garantire che la tecnologia serva il bene pubblico, non solo i propri interessi. Il contributo a Public First Action è parte dell’impegno per una governance che consenta il potenziale trasformativo dell’IA e aiuti a gestire proporzionalmente i suoi rischi.