Rafforzare la Sicurezza nell’Intelligenza Artificiale Europea

Il Notiziario sulla Legge AI dell’UE #78: Riduzione della Burocrazia

Benvenuti al Notiziario sulla Legge AI dell’UE, una breve newsletter bisettimanale che fornisce gli sviluppi e le analisi aggiornate sulla legge sull’intelligenza artificiale dell’UE.

Processo Legislativo

Feedback degli stakeholder sulle definizioni di AI e pratiche vietate: La Commissione Europea ha pubblicato un rapporto preparato dal Centro per gli Studi Politici Europei (CEPS) per l’Ufficio AI dell’UE, analizzando il feedback degli stakeholder proveniente da due consultazioni pubbliche sulle obbligazioni regolatorie della Legge AI. Queste consultazioni hanno esaminato la definizione di sistemi AI e le pratiche AI vietate, applicabili dal 2 febbraio 2025. Il rapporto analizza le risposte a 88 domande di consultazione suddivise in nove sezioni. Gli stakeholder del settore hanno dominato la partecipazione con il 47,2% di quasi 400 risposte, mentre il coinvolgimento dei cittadini è rimasto limitato al 5,74%. I rispondenti hanno richiesto definizioni più chiare di termini tecnici come “adattabilità” e “autonomia”, avvertendo contro la regolamentazione involontaria di software convenzionali. Il rapporto evidenzia le preoccupazioni significative riguardanti le pratiche vietate, inclusa la riconoscimento delle emozioni, il punteggio sociale e l’identificazione biometrica in tempo reale. Gli stakeholder hanno chiesto esempi concreti che distinguano ciò che è vietato da ciò che rimane permesso secondo le normative.

Domande e risposte sulla alfabetizzazione AI: La Commissione Europea ha pubblicato un’ampia Q&A sull’alfabetizzazione AI. L’Articolo 4 della Legge AI è diventato applicabile il 2 febbraio 2025, richiedendo ai fornitori e agli utilizzatori di sistemi AI di garantire un’adeguata alfabetizzazione AI tra il proprio personale e le altre persone che gestiscono i sistemi AI per loro conto. Nella determinazione dei livelli di alfabetizzazione adeguati, i fornitori e gli utilizzatori devono considerare la conoscenza tecnica, l’esperienza, l’istruzione e la formazione degli individui, insieme al contesto in cui i sistemi AI saranno utilizzati. L’Ufficio AI ha pubblicato linee guida complete sull’alfabetizzazione AI, coprendo aree chiave tra cui le definizioni all’interno dell’Articolo 4 e la più ampia Legge AI, i requisiti di conformità, i meccanismi di enforcement e l’approccio dell’Ufficio AI all’implementazione dell’alfabetizzazione AI.

Nessun consigliere scientifico principale sull’AI ancora nonostante dozzine di candidature: Secondo le informazioni, la Commissione Europea non ha ancora nominato un consigliere scientifico principale per il suo Ufficio AI nonostante abbia ricevuto “dozzine di candidature”. Il processo di reclutamento continua nonostante la posizione sia stata aperta tra novembre e dicembre dello scorso anno. Il ruolo del consigliere comporta la garanzia di un elevato livello di comprensione scientifica sull’AI di uso generale e la guida dell’approccio scientifico in tutto il lavoro dell’Ufficio AI, mantenendo la rigorosità scientifica e l’integrità delle iniziative AI.

Analisi

L’UE dovrebbe ridurre la burocrazia reale, non le garanzie AI: Recentemente, è stata pubblicata un’analisi che sostiene che il percorso dell’Europa verso la competitività nell’AI risiede nella riduzione della burocrazia reale, non nella rimozione delle garanzie AI. Esperti indipendenti collaborano con l’Ufficio AI dell’UE per sviluppare linee guida pratiche per le aziende di AI di uso generale, trasformando i principi normativi in pratiche unificate tra gli Stati membri per prevenire normative nazionali frammentate. Questo lavoro riguarda principalmente giganti globali come Meta e Google, piuttosto che startup europee. Si afferma che queste aziende ben finanziate possono gestire facilmente requisiti come le valutazioni di terzi, che garantiscono che modelli come Llama di Meta o Gemini di Google non presentino rischi sistemici. Le garanzie riflettono pratiche consolidate in settori come la farmaceutica, l’aviazione e la finanza, dove la verifica indipendente costruisce fiducia pubblica e fiducia degli investitori.

Il valore del Codice di Pratica per la sicurezza e la sicurezza: Altre analisi evidenziano gli argomenti principali a favore del Codice di Pratica. In primo luogo, il Codice traduce i requisiti essenziali vaghi della Legge AI in linee guida praticabili per i fornitori di AI di uso generale, affrontando obblighi come la valutazione dei modelli e la mitigazione dei rischi sistemici. In secondo luogo, il Codice raccoglie le migliori pratiche di sicurezza da parte delle principali aziende di AI in un unico posto. La Commissione Europea incoraggia l’adozione del Codice, offrendo benefici come maggiore fiducia e enforcement semplificato per i firmatari, mentre i non firmatari affrontano ulteriori controlli e richieste di informazioni.

Feedback

Stiamo cercando un feedback di 2 minuti sulla legge AI sul sito web, in modo da poter costruire le risorse più utili per voi. Abbiamo prodotto molte delle risorse sul nostro sito in risposta diretta al feedback degli utenti, a volte entro una o due settimane. Questo sito ha l’obiettivo di fornire informazioni utili e obiettive sugli sviluppi relativi alla Legge AI dell’UE; è utilizzato da oltre 150.000 utenti ogni mese. Grazie in anticipo per il vostro tempo e impegno.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...