Regolamentazione o Innovazione: La Battaglia dell’IA

Regolamentazione contro Reinvenzione: Il Campo di Battaglia dell’AI

I governi di tutto il mondo stanno affrontando una rapida espansione dell’AI. Si stanno confrontando con il modo migliore per bilanciare la salvaguardia e la regolamentazione con la necessità di promuovere lo sviluppo e l’innovazione che beneficeranno le loro economie.

L’approccio dell’Unione Europea

In Europa, questo è governato dalla Legge sull’AI dell’Unione Europea, introdotta nell’aprile 2021. La legge mira a stabilire un quadro giuridico unificato per l’AI in tutto il territorio dell’UE. Classifica i sistemi AI in diversi livelli di rischio, enfatizzando la sicurezza pubblica, le considerazioni etiche e la privacy dei dati. Si propone di garantire che le idee alla base dei sistemi AI siano allineate con i valori dell’UE di dignità, libertà e non discriminazione.

Tuttavia, il problema fondamentale con la Legge sull’AI dell’UE è che sembra essere stata scritta da un’AI per governare l’uso dell’AI. Molti degli elementi sono vaghi e aperti a interpretazioni, in particolare l’uso di rischi inaccettabili, considerando che la maggior parte dei sistemi giuridici segue il principio di precedente, del quale attualmente non esistono esempi. Di conseguenza, diventa poco più di un’opportunità d’oro per i legali aziendali.

L’approccio degli Stati Uniti

Nel frattempo, Donald Trump avanza con il suo ben noto atteggiamento laissez-faire verso la regolamentazione dell’AI, dando priorità alla crescita economica e all’innovazione rispetto alla regolamentazione. Inoltre, sta esercitando pressioni su altre nazioni sviluppate affinché seguano il suo esempio se vogliono rimanere competitive.

Già nel 2019, la sua amministrazione ha creato l’Iniziativa Americana per l’AI, mirata a garantire che gli Stati Uniti rimanessero un leader globale nell’AI attraverso investimenti nella ricerca. Promuove la collaborazione tra il governo e i settori privati e sostiene lo sviluppo dell’istruzione e della forza lavoro in AI.

Dopo essere tornato alla Casa Bianca, il Presidente Trump non ha perso tempo nel riprendere da dove aveva lasciato. La rapidità con cui ha annullato le direttive sull’AI dell’ex Presidente Biden suggerisce che è influenzato da grandi esecutivi tecnologici senza realmente valutare l’impatto, specialmente a lungo termine. L’effetto successivo della rimozione di questo “intricato sistema”, come le aziende lo definirebbero, potrebbe avere implicazioni di sicurezza e privacy che devono ancora essere viste.

L’approccio del Regno Unito

Nel Regno Unito, il governo ha cercato di trovare un equilibrio tra la rigorosa regolamentazione dell’UE, di cui non fa più parte, e l’approccio meno invasivo favorevole agli Stati Uniti. A differenza dell’approccio prescrittivo dell’UE, la Strategia Nazionale per l’AI del Regno Unito enfatizza la flessibilità regolamentare con un mandato più orientato ai risultati e meno specifico per la tecnologia. L’idea è che permetta al Regno Unito di adattarsi all’evoluzione delle tecnologie AI, piuttosto che bloccarsi in strutture rigide.

Il governo sta anche incoraggiando le industrie a stabilire i propri standard e pratiche in un movimento verso una maggiore autoregolamentazione. Presumibilmente, la speranza è che questo fornisca sufficiente libertà per la crescita tecnologica senza esporsi a critiche di negligenza in materia di sicurezza e privacy dei dati.

Affrontare il fattore di paura dell’AI

Gran parte dell’attuale diffidenza nei confronti dell’AI è alimentata dalla paura di ciò che porterà. Non c’è stata nulla di simile dall’arrivo di Internet, che è passato da on-premise a cloud a mobile. Tuttavia, nulla di tutto ciò è stato percepito come una minaccia. È la mentalità di apprensione attorno all’AI a influenzare negativamente la volontà di adottarla. Questo è ciò che i governi devono affrontare.

Per farlo, il governo deve cercare supporto, anche dall’opposizione, e coinvolgere davvero l’intero paese. Un modo per farlo potrebbe essere quello di introdurre un sistema fiscale che dia incentivi alle aziende britanniche per stabilirsi al di fuori di Londra. Ad esempio, offrire vantaggi favorevoli a start-up di AI per stabilirsi a Newcastle o Glasgow come parte del cosiddetto livellamento del Regno Unito. Ciò incoraggerebbe i giovani imprenditori a costruire tecnologie AI che creeranno posti di lavoro. A loro volta, queste innovazioni potrebbero aiutare a bilanciare le perdite di posti di lavoro causate dalle efficienze dell’AI.

La sfida globale

Questo tipo di approccio e pensiero è fondamentale. Vitale, non solo per il Regno Unito, ma per qualsiasi nazione desiderosa di essere all’avanguardia nello sviluppo e nell’innovazione dell’AI. È fondamentale per un futuro economico sicuro. L’occupazione a basso costo sarà sostituita dall’AI, il che significa che le economie a basso costo stanno per diventare i leader nell’innovazione.

Navigare nei rischi dell’AI sarà difficile, noioso e lungo per i governi. Bilanciare le esigenze di una legislazione densa come la Legge sull’AI dell’UE non farà altro che esacerbare questo. Sebbene l’intento di salvaguardare sia buono, l’applicazione è scarsa, molto simile alla legge GDPR, e sono necessari pensieri più ampi.

Questo è più probabile che avvenga sotto forma di raffinamenti, magari usando l’AI stessa. In alternativa, avvocati ed esperti di conformità si divertiranno a interpretare la legge mentre le aziende sono ostacolate nel tentativo di adattarsi.

Un approccio più agile, come quello caratterizzato dagli Stati Uniti e, in misura minore, dal Regno Unito, potrebbe portare guadagni precoci, ma a quale costo? Rimuovendo le salvaguardie come quelle a protezione della privacy, della sicurezza e delle finanze, come il diritto d’autore degli artisti, qualsiasi guadagno sociale ed economico potrebbe rapidamente andare perso.

L’approccio umano

Per avere successo, i governi devono collaborare con le aziende per avere discussioni aperte e oneste con i propri cittadini riguardo all’AI e al suo potenziale trasformativo, con tutti i suoi difetti. Sebbene il 2024 fosse stato segnalato come l’anno dell’AI, in realtà, non ha decollato nella maniera spettacolare che ci si aspettava, anche a causa della paura dell’ignoto.

Questo cambierà nel 2025. Solo portando il proprio elettorato con sé i governi possono davvero sperare di raggiungere il necessario equilibrio tra regolamentazione e innovazione per progredire. Una forte leadership e una visione chiara non sono mai state così importanti e questo non è sicuramente un lavoro per l’AI.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...