Legge sull’AI dell’UE – Regolamentare l’Invisibile: Imparare a Coesistere con l’Intelligenza Artificiale
Negli ultimi due anni, si è assistito a un periodo di grande fermento, non solo per discutere le possibilità dell’intelligenza artificiale (AI), ma anche per affrontare i suoi reali pericoli e identificare modi per gestirli. L’Unione Europea è stata la prima al mondo a sviluppare una legge di regolamentazione dell’AI basata sui rischi, la Legge sull’Intelligenza Artificiale (AI Act), entrata in vigore l’1 agosto 2024.
Missione della Legge
La missione di questa legge è aumentare la consapevolezza pubblica riguardo all’intelligenza artificiale e promuovere una sorta di “coscienza digitale“. È fondamentale essere sempre consapevoli dei rischi che si corrono utilizzando servizi o prodotti che impiegano AI. La comprensione di tali rischi ci aiuta a valutare le opportunità e i pericoli associati all’AI. L’obiettivo non è plasmare la tecnologia secondo le nostre esigenze, ma stabilire regole che incoraggino un utilizzo consapevole e basato sui rischi.
Classificazione dei Sistemi AI
In futuro, le soluzioni basate sull’AI saranno classificate in quattro categorie. I sistemi che pongono rischi inaccettabili saranno semplicemente vietati. Per le altre tre categorie – alto, limitato e minimo rischio – dovranno essere applicate misure proporzionali al livello di rischio. Queste includono:
- Trasparenza: generare rapporti operativi;
- Supervisione umana: l’AI non deve prendere decisioni in modo indipendente;
- Requisiti di testing: per le applicazioni ad alto rischio.
Per le classificazioni a rischio minimo, informare gli utenti che stanno interagendo con un’AI sarà sufficiente, e i contenuti generati dall’AI dovranno essere chiaramente etichettati.
Esempi di Applicazione
Consideriamo un esempio di un sistema di assistenza clienti: un’assistente AI che intrattiene i clienti in attesa è a rischio minimo. Se l’AI aiuta a ottimizzare i processi di servizio clienti o interagisce con i clienti tramite chatbot, rientra nella categoria a rischio limitato, richiedendo una chiara divulgazione che il cliente sta comunicando con un’AI. Se il sistema utilizza decisioni automatizzate o rilevamento delle emozioni, è classificato come ad alto rischio e richiede protocolli più rigorosi.
Implicazioni Globali
Regolamentare l’uso dell’AI all’interno dell’UE è un passo commendabile, ma cosa succede nel resto del mondo? In paesi come la Cina, i sistemi AI considerati inaccettabili dall’UE sono utilizzati a livello statale, come nel caso del sistema di credito sociale.
La legge sull’AI dell’UE non solo vieta il punteggio sociale, ma anche l’identificazione biometrica remota in tempo reale negli spazi pubblici. Ciò significa che, ad esempio, se entriamo in un centro commerciale, il sistema non deve essere in grado di identificarci. La raccolta di dati generali, come genere, età o altezza, è consentita per il miglioramento dei servizi, ma la memorizzazione e l’analisi di dati personali sono rigorosamente regolati.
La Questione della Fiducia nell’AI
La vera domanda non è se possiamo fidarci dell’AI, ma se possiamo permetterci di non fidarci dell’AI. Dobbiamo imparare a coesistere con l’AI. La sensibilità all’AI diventerà una competenza necessaria, non solo per le aziende, ma anche per gli individui. Questa sensibilità non si limita alla consapevolezza e comprensione dell’utente, ma include anche la responsabilità etica nell’uso dell’AI, evitando la creazione di rifiuti digitali inutili e tenendo presente i requisiti energetici dei data center.
È certo che stiamo entrando in una nuova era emozionante. Negli ultimi due anni, le prime soluzioni AI principali sono emerse come geyser, e da allora sono stati sviluppati sistemi AI multimodali sempre più sofisticati. Queste innovazioni avranno presto un effetto a catena in tutto il mondo, e dobbiamo essere pronti.