AI Catturata nel Mirino della Regolamentazione
Con il rilascio pubblico di ChatGPT nel novembre 2022, l’entusiasmo attorno all’intelligenza artificiale è esploso. In risposta, alcuni ritengono che l’AI necessiti di una regolamentazione più severa. Altri temono che legislatori eccessivamente severi rischino di soffocare un’industria pronta a decollare. Inoltre, nel mondo altamente connesso di oggi, imporre regolamenti severi sull’AI potrebbe semplicemente regalare un vantaggio competitivo a mercati più liberali. Tuttavia, l’Unione Europea è chiaramente convinta che l’AI non possa essere lasciata a se stessa.
Nel giugno 2024, l’UE ha adottato la prima regolamentazione completa sull’AI al mondo: il Artificial Intelligence Act. Questa legge, che sarà pienamente applicabile dopo un periodo di attuazione di due anni, fa parte di un’iniziativa più ampia per rafforzare gli sviluppi regionali dell’AI nota come AI Continent Action Plan. L’approccio ha già diviso le opinioni.
“L’AI Continent Action Plan non solo complementa l’UE AI Act abbinando regolamentazione a investimenti strategici su larga scala, infrastrutture, sviluppo di talenti e supporto all’innovazione, ma opera anche per attuare l’UE AI Act costruendo un potente ecosistema di supporto”, spiega un esperto del settore. “Il piano posiziona l’Europa come leader globale nell’AI responsabile.”
Tuttavia, i detrattori della legge avvertono che essa sovra-regola, potenzialmente soffocando l’innovazione e creando un pesante onere di conformità per le piccole imprese. Un rapporto della società di consulenza PwC prevede che l’AI potrebbe contribuire con 15,7 trilioni di dollari all’economia globale entro il 2030. La questione è se l’UE AI Act posizioni il blocco per ottenere una parte di quel capitale o se faccia allontanare gli investimenti altrove.
Entrare in una Nuova Era
Sebbene le radici dell’AI possano essere fatte risalire a decenni fa, le discussioni sull’estensione della regolamentazione della tecnologia hanno iniziato a intensificarsi solo dopo il rilascio di ChatGPT. Da allora, l’AI si è diffusa rapidamente, in particolare nel mondo aziendale, con oltre il 75 percento dei rispondenti a un recente sondaggio globale di McKinsey sull’AI che affermano che le loro organizzazioni utilizzano la tecnologia in almeno una funzione aziendale.
Statistiche sulla prevalenza dell’AI smentiscono il fatto che la reazione generale alla tecnologia sia stata più mista. Un sondaggio di marzo 2024 della società di analisi dei dati YouGov ha rivelato che “cauteloso” (54 percento) e “preoccupato” (49 percento) erano le due risposte più comuni date dai cittadini statunitensi quando sono stati chiesti come si sentivano riguardo ai progressi dell’AI. La regolamentazione, come abbiamo visto con l’UE AI Act, mira a placare queste paure senza annullare i benefici della tecnologia.
“L’UE AI Act introduce un quadro normativo completo, orizzontale e basato sul rischio, progettato per proteggere i cittadini mentre consente l’innovazione”, afferma l’esperto. Divide le applicazioni AI in tre categorie di rischio. Le applicazioni come il punteggio sociale gestito dal governo, di tipo cinese, sono vietate per presentare un rischio inaccettabile. In secondo luogo, strumenti come i CV-scanner per le candidature di lavoro sono considerati ad alto rischio, mentre altre rimangono non influenzate.
Nonostante i presunti impegni della legge per l’innovazione, non tutti sono convinti. Poco dopo l’annuncio della legge, un sondaggio di società di capitali di rischio presentato al Forum AI europeo ha rivelato che il 73 percento si aspettava che essa riducesse o riducesse significativamente la competitività delle startup AI europee.
“Deve essere trovato un equilibrio per garantire che le aziende europee, e quindi l’Europa nel suo insieme, possano prosperare”, ha dichiarato un’associazione rappresentativa dei settori del private equity, venture capital e infrastrutture del continente in risposta. Alcuni sostengono che questo equilibrio non sia stato ancora trovato.
La Competizione Globale Si Riscalda
L’ambizione dell’Europa di guidare il resto del mondo nella regolamentazione dell’AI potrebbe essere nobile, ma l’etica e il valore degli investimenti non sono necessariamente la stessa cosa. “Le aziende al di fuori dell’UE potrebbero decidere di non lanciare più le loro tecnologie in Europa a causa della regolamentazione”, ha affermato un esperto della gestione strategica. “Già oggi vediamo che il modello Llama 3 di Meta non è disponibile nell’UE”.
Se le aziende evitano il mercato europeo, è probabile che le potenziali multe per non conformità siano da biasimare. La violazione delle normative comporterà sanzioni da 7,5 milioni a 35 milioni di euro, o dall’1 al 7 percento del fatturato globale annuale dell’azienda, a seconda di quale sia maggiore.
Rimane da vedere se gli Stati Uniti, o meno probabilmente la Cina, seguiranno l’esempio dell’UE approvando legislazioni punitive sull’AI. Certamente, per ora, l’UE AI Act distingue il continente – il che potrebbe effettivamente guidare gli investimenti.
“Invece di cercare di competere testa a testa con gli Stati Uniti o la Cina puramente in termini di scala o velocità, il AI Continent Action Plan pone l’Europa su un percorso per ritagliarsi una nicchia distintiva: ‘AI etica e incentrata sull’uomo’”, aggiunge l’esperto. “Questo potrebbe rendere ‘AI prodotta in Europa’ un marchio di fiducia, sicurezza e qualità, particolarmente prezioso in settori sensibili come la salute, l’istruzione e i servizi pubblici.”
Per ottenere un quadro più chiaro del suo impatto probabile, l’UE AI Act deve essere visto nel suo contesto più ampio. L’AI Continent Action Plan, a cui la legge è strettamente legata, mira a mobilitare investimenti pubblici e privati su larga scala per supportare l’attuazione. Ciò include finanziamenti per infrastrutture, accesso a dati di alta qualità, aggiornamento digitale e ecosistemi di ricerca sull’AI. Ad aprile, è stato rivelato che 20 miliardi di euro di questi finanziamenti andranno direttamente alla creazione di nuove gigafabbriche di supercomputer per sviluppare la prossima generazione di modelli AI.
Guidare il Futuro
L’UE ha senza dubbio bisogno di recuperare terreno. Un recente rapporto della Stanford University ha affermato che 40 “modelli AI notevoli” sono stati prodotti da istituzioni statunitensi nell’ultimo anno, rispetto a 15 dalla Cina e solo 3 dall’Europa. Un rapporto precedente della Stanford ha persino affermato che nessun paese dell’UE si è classificato nei primi cinque per “vibranza” dell’AI, un indicatore che comprende investimenti privati, brevetti e ricerca.
Il AI Continent Action Plan è un riconoscimento che l’UE deve attrarre più investimenti nell’AI, ma lo farà a suo modo. Nuove regolamentazioni, piuttosto che limitare gli investimenti, potrebbero fornire chiarezza rispetto ai mercati in cui non sono ancora state approvate leggi ma è probabile che lo siano. Ecco perché esempi di investimenti nell’AI in Europa continuano, come i 1,4 miliardi di euro ricevuti dalle aziende AI in Europa centrale e orientale tra il 2023 e la metà del 2024.
“L’AI Act, quando accompagnato dall’AI Continent Action Plan, diventa più di un semplice sforzo normativo: diventa un progetto per un’innovazione etica e inclusiva”, afferma l’esperto. “Se avrà successo, questa strategia potrebbe fare più che guidare l’Europa, potrebbe plasmare le norme globali, dimostrando che l’innovazione guidata dai valori non è solo possibile, ma potente.”
L’Europa potrebbe non avere mai un gigante dell’AI autoctono in grado di competere con OpenAI o DeepSeek, ma ciò non significa che l’innovazione nell’AI non possa emergere dal continente. Né significa che gli investitori debbano guardare altrove. Gli investimenti digitali nel continente sono continuati anche dopo il GDPR, dopotutto. L’UE sta dicendo tutto il giusto per garantire che la sua regolamentazione sull’AI supporti piuttosto che soffocare gli investimenti. Ora è il momento di agire.