Navigare nella nuova realtà della politica internazionale sull’IA
Dal gennaio 2025, la direzione strategica della politica sull’intelligenza artificiale (IA) ha subito un cambiamento drammatico, concentrandosi sulla capacità dei singoli stati nazionali di vincere la “corsa globale all’IA”, dando priorità alla leadership tecnologica e all’innovazione nazionale. Questo solleva interrogativi sul futuro della politica internazionale sull’IA: c’è la volontà di affrontare i rischi dell’IA attraverso test e valutazioni significative? O si assisterà a una ulteriore devoluzione verso priorità di adozione e investimento nazionali, lasciando poco spazio alla collaborazione globale?
Con l’India pronta a ospitare il prossimo AI Impact Summit a Nuova Delhi il prossimo febbraio, si presenta un’opportunità per i governi nazionali di avanzare discussioni sulla fiducia e sulle valutazioni, anche in mezzo alle tensioni nel dialogo politico tra la sicurezza dell’IA e l’adozione dell’IA. Durante il summit, i governi nazionali dovrebbero unirsi per incoraggiare un approccio collaborativo e coordinato a livello globale alla governance dell’IA, che cerchi di minimizzare i rischi mentre massimizza l’adozione diffusa.
Parigi: Inizia la rivoluzione dell’adozione dell’IA
Il primo slancio verso politiche focalizzate sulla sicurezza dell’IA e sul suo potenziale di rappresentare rischi esistenziali per l’umanità è iniziato al primo AI Safety Summit ospitato nel Regno Unito a Bletchley Park nel 2023. Questa discussione è stata ulteriormente avanzata in successivi summit internazionali a Seoul, Corea del Sud, e San Francisco, California, nel 2024. Tuttavia, mentre la Francia ha tenuto il primo AI Action Summit a Parigi nel febbraio di quest’anno, poco dopo l’insediamento del presidente statunitense Donald Trump per il suo secondo mandato e l’assunzione del primo ministro Keir Starmer alla guida di un nuovo governo laburista nel Regno Unito, queste discussioni sui rischi e sulla sicurezza dell’IA sembravano perdere slancio.
Durante l’AI Action Summit a Parigi, il presidente francese Emmanuel Macron ha dichiarato che ora è “un momento per innovazione e accelerazione” nell’IA, mentre il vicepresidente statunitense JD Vance ha affermato che “il futuro dell’IA non sarà vinto con preoccupazioni sulla sicurezza”. Alla conclusione del summit, gli Stati Uniti e il Regno Unito hanno scelto di non unirsi ad altri paesi nella firma della Statement on Inclusive and Sustainable AI for People and Planet. Pochi giorni dopo, il Regno Unito ha rinominato il suo AI Safety Institute in AI Security Institute, riflettendo un cambiamento verso un focus sui rischi legati alla sicurezza nazionale derivanti dai modelli di IA più avanzati piuttosto che affrontare preoccupazioni più ampie sui rischi esistenziali che i sistemi di IA potrebbero porre. Questo approccio è stato adottato anche dagli Stati Uniti, che hanno ri-branded il loro AI Safety Institute in Center for AI Standards and Innovation a giugno.
Mandati di investimento e adozione dell’IA
Negli Stati Uniti sono stati intrapresi diversi passi in questa nuova direzione. L’amministrazione Trump ha abrogato diverse azioni esecutive dell’era Biden sull’IA nei primi giorni di gennaio, incluso l’“Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”. A febbraio, l’amministrazione ha emesso una richiesta di informazioni per sviluppare un nuovo “AI Action Plan”, ai sensi di un ordine esecutivo firmato a gennaio intitolato “Removing Barriers to American Leadership in Artificial Intelligence”. L’ordine esecutivo sull’IA dell’amministrazione Trump prevede la riduzione dei oneri amministrativi e normativi per lo sviluppo e l’adozione dell’IA, nonché un ulteriore allineamento della strategia statunitense sull’IA con gli interessi di sicurezza nazionale e gli obiettivi di competitività economica. Queste azioni enfatizzano un approccio che considera la deregulation essenziale per la leadership globale degli Stati Uniti nell’IA.
Allo stesso tempo, è emerso un dibattito politico negli Stati Uniti su se il governo federale dovrebbe prevenire la legislazione statale sull’IA che imponesse regolamenti sull’industria. L’industria è preoccupata che i numerosi e vari approcci alla legislazione sull’IA sviluppati a livello statale potrebbero creare un mosaico di regolamenti che renderebbero complicato e opprimente l’ambiente di conformità.
Ma anche mentre il dibattito sulla pre-emption federale continua, le proposte a livello statale sulla gestione e governance dei rischi dell’IA sono rimaste ferme. La proposta della Virginia per il High-Risk Artificial Intelligence Developer and Deployer Act è stata veto dal governatore Glenn Youngkin a marzo. Nel frattempo, il Texas Responsible Artificial Intelligence Governance Act è stato significativamente ridotto prima di essere firmato in legge il mese scorso, con tutte le riferimenti ai sistemi di IA ad alto rischio e le relative proibizioni rimosse.
Adattarsi a questo cambiamento nella politica globale sull’IA
Data questa marcata cambiamento nel tono delle discussioni globali sulla politica dell’IA, alcuni potrebbero chiedersi se ci siano ancora opportunità per avanzare conversazioni sulla fiducia e sulla sicurezza dell’IA. Tuttavia, le aziende desiderano certezza e la fiducia rimane fondamentale per creare un ecosistema che supporti l’adozione. Inoltre, il panorama dell’IA continua a evolversi, richiedendo discussioni continue su “cosa significa buono” quando si tratta di modelli di IA utilizzati in una varietà di applicazioni e scenari aziendali. Tecnologie emergenti come l’agentic AI, sistemi di IA progettati per agire autonomamente, prendendo decisioni e compiendo azioni per raggiungere obiettivi specifici con un intervento umano minimo, così come le sfide evolutive nel dispiegamento aziendale, rendono chiaro che il 2025 non rappresenta il crepuscolo della politica internazionale sull’IA volta a valutare e mitigare i rischi, ma un potenziale alba.
Il prossimo AI Impact Summit a Nuova Delhi presenta un’opportunità per continuare le conversazioni su come creare un robusto ecosistema di test e valutazione dell’IA possa guidare l’innovazione e favorire la fiducia, avanzando ulteriormente la sicurezza e l’adozione dell’IA. Ci sono quattro aree chiave che i governi nazionali dovrebbero prioritizzare nei loro sforzi per avanzare nell’adozione dell’IA, collaborando anche a livello globale.
1. Valutare e affrontare le lacune normative basate sulle nuove evoluzioni della tecnologia dell’IA. L’agentic AI è la prossima evoluzione della tecnologia dell’IA. Come altre iterazioni della tecnologia, può offrire vantaggi significativi, ma allo stesso tempo, amplificare i rischi esistenti o introdurre nuovi rischi poiché può eseguire compiti autonomamente. I governi dovrebbero condurre una valutazione dei quadri normativi esistenti per garantire che tengano conto di eventuali nuovi rischi legati all’agentic AI. Inoltre, nella misura in cui si identificano lacune, dovrebbero considerare la creazione di quadri flessibili e a prova di futuro che possano essere adattati alle future evoluzioni della tecnologia dell’IA.
2. Avanzare discussioni guidate dall’industria sui modelli open-source e open-weight, comprese considerazioni specifiche per le preoccupazioni sulla sicurezza nazionale. La trasparenza e l’accesso variano ampiamente tra i modelli open-source e open-weight, e i ricercatori e le aziende dovrebbero comprendere fino a che punto i modelli e i set di dati rimangono aperti. Le parti interessate, compresi i governi nazionali, devono comprendere non solo cosa costituisce un modello open-source o open-weight, ma anche quali elementi di tali modelli sono necessari per essere condivisi a valle. Inoltre, le imprese e gli attori industriali hanno bisogno di certezza su eventuali linee di faglia pertinenti per queste considerazioni quando scelgono partner e fornitori terzi quando i modelli open-source o open-weight potrebbero influire sulla sicurezza nazionale. Tali discussioni consentiranno alle imprese di determinare quali modelli e mercati offrono fondamenti sicuri e protetti per la sperimentazione e quali misure di trasparenza possono essere ragionevolmente attese.
3. Favorire la fiducia incoraggiando lo sviluppo e l’adozione di test, benchmark e valutazioni dell’IA. I governi dovrebbero incoraggiare l’adozione di test, benchmark e valutazioni dell’IA riconosciuti a livello globale e basati sul consenso. Gli sviluppatori di modelli di frontiera devono essere in grado di comprendere, analizzare e iterare sui loro LLM con l’aiuto di dettagliate valutazioni delle prestazioni e della sicurezza. I governi dovrebbero supportare lo sviluppo di quadri di test e valutazione robusti per garantire che tali quadri siano adeguati allo scopo, affrontino questioni come la mancanza di coerenza e affidabilità nel modo in cui vengono riportati i risultati delle valutazioni e migliorino la disponibilità di set di dati di valutazione di alta qualità e affidabili. Questi quadri dovrebbero anche essere costruiti per comprendere ulteriormente e iterare sui risultati delle valutazioni per migliorare i modelli senza overfitting, o creando modelli che corrispondano così da vicino al set di addestramento da non riuscire a fare previsioni corrette su nuovi dati.
4. Promuovere la cooperazione pubblico-privato oltre i confini per favorire l’adozione dell’IA e gestire i rischi. La conversazione tecnologica non è vincolata dai confini nazionali. Pertanto, è importante che sia gli attori del settore pubblico che quelli del settore privato riconoscano e sfruttino l’interdipendenza della catena del valore dell’IA, impegnandosi in conversazioni sulla governance e la trasparenza dell’IA. È inoltre fondamentale che i politici e i diversi attori della catena del valore dell’IA abbiano una chiara comprensione dei loro ruoli e delle loro responsabilità. Le imprese e i governi nazionali dovrebbero continuare a utilizzare forum internazionali come l’Organisation for Economic Co-operation and Development, il Global Partnership on Artificial Intelligence, la International Network of Safety Institutes e le United Nations per facilitare la collaborazione pubblico-privato oltre i confini. Questo aiuterà a garantire che i diversi approcci siano interoperabili e che i paesi e le organizzazioni sfruttino al meglio i propri punti di forza.
Il mondo non deve perdere i risultati già raggiunti da ricercatori, politici e aziende che hanno lavorato per affrontare i rischi dell’IA negli ultimi anni, sovrapponendo l’adozione da sola. Le risposte necessarie per affrontare le sfide e i rischi associati all’IA sono intrecciate con la capacità di capitalizzare le opportunità che l’IA presenta e possono garantire la responsabilità e la sicurezza di queste tecnologie per gli anni a venire. Se l’adozione dell’IA è l’obiettivo, allora i test, le valutazioni e la governance dell’IA sono i metodi. Un impegno collaborativo per avanzare nella politica dell’IA che rifletta questo fatto dovrebbe essere la priorità di ogni nazione.