Regolamentazione o Innovazione: La Battaglia dell’IA

Regolamentazione contro Reinvenzione: Il Campo di Battaglia dell’AI

I governi di tutto il mondo stanno affrontando una rapida espansione dell’AI. Si stanno confrontando con il modo migliore per bilanciare la salvaguardia e la regolamentazione con la necessità di promuovere lo sviluppo e l’innovazione che beneficeranno le loro economie.

L’approccio dell’Unione Europea

In Europa, questo è governato dalla Legge sull’AI dell’Unione Europea, introdotta nell’aprile 2021. La legge mira a stabilire un quadro giuridico unificato per l’AI in tutto il territorio dell’UE. Classifica i sistemi AI in diversi livelli di rischio, enfatizzando la sicurezza pubblica, le considerazioni etiche e la privacy dei dati. Si propone di garantire che le idee alla base dei sistemi AI siano allineate con i valori dell’UE di dignità, libertà e non discriminazione.

Tuttavia, il problema fondamentale con la Legge sull’AI dell’UE è che sembra essere stata scritta da un’AI per governare l’uso dell’AI. Molti degli elementi sono vaghi e aperti a interpretazioni, in particolare l’uso di rischi inaccettabili, considerando che la maggior parte dei sistemi giuridici segue il principio di precedente, del quale attualmente non esistono esempi. Di conseguenza, diventa poco più di un’opportunità d’oro per i legali aziendali.

L’approccio degli Stati Uniti

Nel frattempo, Donald Trump avanza con il suo ben noto atteggiamento laissez-faire verso la regolamentazione dell’AI, dando priorità alla crescita economica e all’innovazione rispetto alla regolamentazione. Inoltre, sta esercitando pressioni su altre nazioni sviluppate affinché seguano il suo esempio se vogliono rimanere competitive.

Già nel 2019, la sua amministrazione ha creato l’Iniziativa Americana per l’AI, mirata a garantire che gli Stati Uniti rimanessero un leader globale nell’AI attraverso investimenti nella ricerca. Promuove la collaborazione tra il governo e i settori privati e sostiene lo sviluppo dell’istruzione e della forza lavoro in AI.

Dopo essere tornato alla Casa Bianca, il Presidente Trump non ha perso tempo nel riprendere da dove aveva lasciato. La rapidità con cui ha annullato le direttive sull’AI dell’ex Presidente Biden suggerisce che è influenzato da grandi esecutivi tecnologici senza realmente valutare l’impatto, specialmente a lungo termine. L’effetto successivo della rimozione di questo “intricato sistema”, come le aziende lo definirebbero, potrebbe avere implicazioni di sicurezza e privacy che devono ancora essere viste.

L’approccio del Regno Unito

Nel Regno Unito, il governo ha cercato di trovare un equilibrio tra la rigorosa regolamentazione dell’UE, di cui non fa più parte, e l’approccio meno invasivo favorevole agli Stati Uniti. A differenza dell’approccio prescrittivo dell’UE, la Strategia Nazionale per l’AI del Regno Unito enfatizza la flessibilità regolamentare con un mandato più orientato ai risultati e meno specifico per la tecnologia. L’idea è che permetta al Regno Unito di adattarsi all’evoluzione delle tecnologie AI, piuttosto che bloccarsi in strutture rigide.

Il governo sta anche incoraggiando le industrie a stabilire i propri standard e pratiche in un movimento verso una maggiore autoregolamentazione. Presumibilmente, la speranza è che questo fornisca sufficiente libertà per la crescita tecnologica senza esporsi a critiche di negligenza in materia di sicurezza e privacy dei dati.

Affrontare il fattore di paura dell’AI

Gran parte dell’attuale diffidenza nei confronti dell’AI è alimentata dalla paura di ciò che porterà. Non c’è stata nulla di simile dall’arrivo di Internet, che è passato da on-premise a cloud a mobile. Tuttavia, nulla di tutto ciò è stato percepito come una minaccia. È la mentalità di apprensione attorno all’AI a influenzare negativamente la volontà di adottarla. Questo è ciò che i governi devono affrontare.

Per farlo, il governo deve cercare supporto, anche dall’opposizione, e coinvolgere davvero l’intero paese. Un modo per farlo potrebbe essere quello di introdurre un sistema fiscale che dia incentivi alle aziende britanniche per stabilirsi al di fuori di Londra. Ad esempio, offrire vantaggi favorevoli a start-up di AI per stabilirsi a Newcastle o Glasgow come parte del cosiddetto livellamento del Regno Unito. Ciò incoraggerebbe i giovani imprenditori a costruire tecnologie AI che creeranno posti di lavoro. A loro volta, queste innovazioni potrebbero aiutare a bilanciare le perdite di posti di lavoro causate dalle efficienze dell’AI.

La sfida globale

Questo tipo di approccio e pensiero è fondamentale. Vitale, non solo per il Regno Unito, ma per qualsiasi nazione desiderosa di essere all’avanguardia nello sviluppo e nell’innovazione dell’AI. È fondamentale per un futuro economico sicuro. L’occupazione a basso costo sarà sostituita dall’AI, il che significa che le economie a basso costo stanno per diventare i leader nell’innovazione.

Navigare nei rischi dell’AI sarà difficile, noioso e lungo per i governi. Bilanciare le esigenze di una legislazione densa come la Legge sull’AI dell’UE non farà altro che esacerbare questo. Sebbene l’intento di salvaguardare sia buono, l’applicazione è scarsa, molto simile alla legge GDPR, e sono necessari pensieri più ampi.

Questo è più probabile che avvenga sotto forma di raffinamenti, magari usando l’AI stessa. In alternativa, avvocati ed esperti di conformità si divertiranno a interpretare la legge mentre le aziende sono ostacolate nel tentativo di adattarsi.

Un approccio più agile, come quello caratterizzato dagli Stati Uniti e, in misura minore, dal Regno Unito, potrebbe portare guadagni precoci, ma a quale costo? Rimuovendo le salvaguardie come quelle a protezione della privacy, della sicurezza e delle finanze, come il diritto d’autore degli artisti, qualsiasi guadagno sociale ed economico potrebbe rapidamente andare perso.

L’approccio umano

Per avere successo, i governi devono collaborare con le aziende per avere discussioni aperte e oneste con i propri cittadini riguardo all’AI e al suo potenziale trasformativo, con tutti i suoi difetti. Sebbene il 2024 fosse stato segnalato come l’anno dell’AI, in realtà, non ha decollato nella maniera spettacolare che ci si aspettava, anche a causa della paura dell’ignoto.

Questo cambierà nel 2025. Solo portando il proprio elettorato con sé i governi possono davvero sperare di raggiungere il necessario equilibrio tra regolamentazione e innovazione per progredire. Una forte leadership e una visione chiara non sono mai state così importanti e questo non è sicuramente un lavoro per l’AI.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...