Regolamentazione dell’IA: L’UE emette linee guida per i modelli di IA con rischi sistemici
La Commissione Europea ha recentemente emesso linee guida per assistere i modelli di intelligenza artificiale (IA) identificati come aventi rischi sistemici nella loro compliance con la regolamentazione dell’intelligenza artificiale dell’Unione Europea, nota come AI Act.
Le aziende potrebbero affrontare sanzioni significative, che vanno da 7,5 milioni di euro (8,7 milioni di dollari) a 35 milioni di euro o fino al 7% del fatturato globale per le violazioni dell’AI Act, che entrerà in vigore il 2 agosto per i modelli di IA ad alto rischio.
Obblighi delle Aziende
Le linee guida richiederanno alle aziende di:
- Realizzare valutazioni dei modelli
- Valutare i rischi associati
- Condurre test avversariali
- Segnalare incidenti gravi
- Assicurare misure di cybersecurity per proteggere contro l’uso improprio
Il Commissione definisce i modelli di IA con rischio sistemico come quelli dotati di capacità di calcolo molto avanzate, che potrebbero avere un impatto significativo sulla salute pubblica, sulla sicurezza, sui diritti fondamentali o sulla società.
Modelli di IA di Uso Generale
I modelli di IA generali o fondamentali saranno soggetti a requisiti di trasparenza, come la redazione di documentazione tecnica, l’adozione di politiche sul copyright e la fornitura di riepiloghi dettagliati sul contenuto utilizzato per l’addestramento degli algoritmi.
Con le linee guida odierne, la Commissione supporta l’applicazione efficace e fluida dell’AI Act.
Le aziende hanno tempo fino al 2 agosto dell’anno prossimo per conformarsi a questa legislazione, affrontando sfide significative, ma anche opportunità in un mercato in rapida evoluzione.