9 Approcci per le Regolamentazioni Governative sull’Intelligenza Artificiale
Dal 2016, oltre trenta paesi hanno approvato leggi che menzionano esplicitamente l’Intelligenza Artificiale. Nel 2025, il dibattito sui progetti di legge sull’IA nei corpi legislativi è aumentato a livello globale.
È emerso un documento significativo che descrive 9 approcci normativi (con esempi da tutto il mondo) che sono estremamente interessanti per chi lavora o studia la governance e la regolamentazione dell’IA.
Questi approcci sono presentati in ordine crescente di intervento, da misure normative leggere a approcci più coercitivi e impegnativi. È importante notare che gli approcci normativi descritti non sono mutuamente esclusivi e le leggi sull’IA nel mondo spesso combinano due o più approcci.
1. Approccio Basato sui Principi
Offrire ai portatori di interesse un insieme di proposizioni fondamentali (principi) che forniscono indicazioni per sviluppare e utilizzare sistemi di IA attraverso processi etici, responsabili e rispettosi dei diritti umani.
Esempi di strumenti internazionali che promuovono principi per l’IA sono le Raccomandazioni sull’Etica dell’IA dell’UNESCO e la Raccomandazione del Consiglio sull’Intelligenza Artificiale dell’OCSE.
2. Approccio Basato sugli Standard
Delegare (totalmente o parzialmente) i poteri regolatori dello stato a organizzazioni che producono standard tecnici che guideranno l’interpretazione e l’implementazione delle regole obbligatorie.
Ad esempio, il Recital 121 dell’Atto sull’IA dell’UE stabilisce che “la standardizzazione dovrebbe svolgere un ruolo chiave per fornire soluzioni tecniche ai fornitori per garantire la conformità a questa regolamentazione”.
3. Approccio Agile ed Esperimentale
Generare schemi normativi flessibili, come sandbox normative e altri testbed, che consentano alle organizzazioni di testare nuovi modelli di business, metodi, infrastrutture e strumenti sotto condizioni normative più flessibili.
Questo è il caso dell’Atto sull’IA dell’UE, che stabilisce un quadro per la creazione di sandbox normative.
4. Approccio di Facilitazione e Abilitazione
Facilitare e abilitare un ambiente che incoraggi tutti i portatori di interesse coinvolti nel ciclo di vita dell’IA a sviluppare e utilizzare sistemi di IA responsabili ed etici.
Ad esempio, l’UNESCO ha sviluppato la Metodologia di Valutazione della Prontezza (RAM) per aiutare i paesi a capire il loro livello di preparazione per implementare l’IA in modo etico e responsabile.
5. Approccio di Adattamento delle Leggi Esistenti
Modificare le regole specifiche per settore (ad es. salute, finanza, istruzione) e le regole trasversali (ad es. codici penali, leggi sulla protezione dei dati) per apportare miglioramenti incrementali al quadro normativo esistente.
6. Approccio ai Mandati di Accesso alle Informazioni
Richiedere l’implementazione di strumenti di trasparenza che consentano al pubblico di accedere a informazioni di base sui sistemi di IA.
Alcuni paesi hanno già adottato obblighi di trasparenza algoritmica per le autorità pubbliche.
7. Approccio Basato sul Rischio
Stabilire obblighi e requisiti in base a una valutazione dei rischi associati all’uso di determinati strumenti di IA in contesti specifici.
Un esempio attuale di regolamento con un approccio basato sul rischio è la Direttiva sul Decision Making Automatico del Canada.
8. Approccio Basato sui Diritti
Stabilire obblighi o requisiti per proteggere i diritti e le libertà degli individui.
9. Approccio alla Responsabilità
Assegnare responsabilità e sanzioni per usi problematici dei sistemi di IA.
Ad esempio, l’Atto sull’IA dell’UE ha stabilito sanzioni per le infrazioni della regolamentazione.