Rafforzare la Sicurezza nell’Intelligenza Artificiale Europea

Il Notiziario sulla Legge AI dell’UE #78: Riduzione della Burocrazia

Benvenuti al Notiziario sulla Legge AI dell’UE, una breve newsletter bisettimanale che fornisce gli sviluppi e le analisi aggiornate sulla legge sull’intelligenza artificiale dell’UE.

Processo Legislativo

Feedback degli stakeholder sulle definizioni di AI e pratiche vietate: La Commissione Europea ha pubblicato un rapporto preparato dal Centro per gli Studi Politici Europei (CEPS) per l’Ufficio AI dell’UE, analizzando il feedback degli stakeholder proveniente da due consultazioni pubbliche sulle obbligazioni regolatorie della Legge AI. Queste consultazioni hanno esaminato la definizione di sistemi AI e le pratiche AI vietate, applicabili dal 2 febbraio 2025. Il rapporto analizza le risposte a 88 domande di consultazione suddivise in nove sezioni. Gli stakeholder del settore hanno dominato la partecipazione con il 47,2% di quasi 400 risposte, mentre il coinvolgimento dei cittadini è rimasto limitato al 5,74%. I rispondenti hanno richiesto definizioni più chiare di termini tecnici come “adattabilità” e “autonomia”, avvertendo contro la regolamentazione involontaria di software convenzionali. Il rapporto evidenzia le preoccupazioni significative riguardanti le pratiche vietate, inclusa la riconoscimento delle emozioni, il punteggio sociale e l’identificazione biometrica in tempo reale. Gli stakeholder hanno chiesto esempi concreti che distinguano ciò che è vietato da ciò che rimane permesso secondo le normative.

Domande e risposte sulla alfabetizzazione AI: La Commissione Europea ha pubblicato un’ampia Q&A sull’alfabetizzazione AI. L’Articolo 4 della Legge AI è diventato applicabile il 2 febbraio 2025, richiedendo ai fornitori e agli utilizzatori di sistemi AI di garantire un’adeguata alfabetizzazione AI tra il proprio personale e le altre persone che gestiscono i sistemi AI per loro conto. Nella determinazione dei livelli di alfabetizzazione adeguati, i fornitori e gli utilizzatori devono considerare la conoscenza tecnica, l’esperienza, l’istruzione e la formazione degli individui, insieme al contesto in cui i sistemi AI saranno utilizzati. L’Ufficio AI ha pubblicato linee guida complete sull’alfabetizzazione AI, coprendo aree chiave tra cui le definizioni all’interno dell’Articolo 4 e la più ampia Legge AI, i requisiti di conformità, i meccanismi di enforcement e l’approccio dell’Ufficio AI all’implementazione dell’alfabetizzazione AI.

Nessun consigliere scientifico principale sull’AI ancora nonostante dozzine di candidature: Secondo le informazioni, la Commissione Europea non ha ancora nominato un consigliere scientifico principale per il suo Ufficio AI nonostante abbia ricevuto “dozzine di candidature”. Il processo di reclutamento continua nonostante la posizione sia stata aperta tra novembre e dicembre dello scorso anno. Il ruolo del consigliere comporta la garanzia di un elevato livello di comprensione scientifica sull’AI di uso generale e la guida dell’approccio scientifico in tutto il lavoro dell’Ufficio AI, mantenendo la rigorosità scientifica e l’integrità delle iniziative AI.

Analisi

L’UE dovrebbe ridurre la burocrazia reale, non le garanzie AI: Recentemente, è stata pubblicata un’analisi che sostiene che il percorso dell’Europa verso la competitività nell’AI risiede nella riduzione della burocrazia reale, non nella rimozione delle garanzie AI. Esperti indipendenti collaborano con l’Ufficio AI dell’UE per sviluppare linee guida pratiche per le aziende di AI di uso generale, trasformando i principi normativi in pratiche unificate tra gli Stati membri per prevenire normative nazionali frammentate. Questo lavoro riguarda principalmente giganti globali come Meta e Google, piuttosto che startup europee. Si afferma che queste aziende ben finanziate possono gestire facilmente requisiti come le valutazioni di terzi, che garantiscono che modelli come Llama di Meta o Gemini di Google non presentino rischi sistemici. Le garanzie riflettono pratiche consolidate in settori come la farmaceutica, l’aviazione e la finanza, dove la verifica indipendente costruisce fiducia pubblica e fiducia degli investitori.

Il valore del Codice di Pratica per la sicurezza e la sicurezza: Altre analisi evidenziano gli argomenti principali a favore del Codice di Pratica. In primo luogo, il Codice traduce i requisiti essenziali vaghi della Legge AI in linee guida praticabili per i fornitori di AI di uso generale, affrontando obblighi come la valutazione dei modelli e la mitigazione dei rischi sistemici. In secondo luogo, il Codice raccoglie le migliori pratiche di sicurezza da parte delle principali aziende di AI in un unico posto. La Commissione Europea incoraggia l’adozione del Codice, offrendo benefici come maggiore fiducia e enforcement semplificato per i firmatari, mentre i non firmatari affrontano ulteriori controlli e richieste di informazioni.

Feedback

Stiamo cercando un feedback di 2 minuti sulla legge AI sul sito web, in modo da poter costruire le risorse più utili per voi. Abbiamo prodotto molte delle risorse sul nostro sito in risposta diretta al feedback degli utenti, a volte entro una o due settimane. Questo sito ha l’obiettivo di fornire informazioni utili e obiettive sugli sviluppi relativi alla Legge AI dell’UE; è utilizzato da oltre 150.000 utenti ogni mese. Grazie in anticipo per il vostro tempo e impegno.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...