Quadro Legale Proposto per un’Intelligenza Artificiale Sicura e Responsabile
Con l’avanzare della tecnologia AI, la capacità di autonomia dei sistemi AI aumenta in modo esponenziale. Questi sistemi sono in grado di prendere decisioni indipendenti, spesso senza o con minima supervisione umana. Esempi di tali sistemi includono automobili a guida autonoma e robot umanoidi.
Tuttavia, la tecnologia AI attuale si basa su reti neurali, che sono sistemi a scatola nera. Le reti neurali più avanzate, in particolare i modelli GenAI, contengono miliardi di parametri e, nonostante i migliori sforzi dei ricercatori, il loro funzionamento interno non è ancora completamente compreso. Queste reti producono frequentemente risultati imprevisti e indesiderati.
Con l’aumentare dell’autonomia, i rischi e gli impatti dei fallimenti dei sistemi AI aumentano notevolmente. Di conseguenza, poche aziende e organizzazioni stanno implementando agenti AI nei loro processi aziendali core. Inoltre, l’adozione di agenti AI per compiti ad alto impatto, come la guida autonoma e la diagnosi medica, rimane bassa nonostante la maturazione di tali tecnologie.
Il pezzo fondamentale mancante è la mancanza di regolamenti e quadri legali per l’imputabilità e la responsabilità degli agenti AI quando le cose vanno male. Questo porta a una mancanza di trasparenza e chiarezza, ostacolando il progresso dell’umanità verso una società potenziata dall’AI, dalla quale più persone possano beneficiare della tecnologia.
Principio Fondamentale
Il principio chiave alla base di questo articolo è registrare e regolare gli agenti e i sistemi AI come se fossero un’entità commerciale. Questo concetto legale è noto come personalità giuridica aziendale. Nella maggior parte dei paesi, una società ha gli stessi diritti di una persona naturale per possedere beni, stipulare contratti e fare causa o essere citata in giudizio.
Per gli agenti/sistemi AI, i diritti di possedere beni non sono critici per le loro funzioni core. Invece, i diritti di stipulare contratti, fare causa o essere citati in giudizio formeranno la base per lo sviluppo e l’implementazione responsabili e ben considerati degli agenti AI. Nell’attuale quadro giuridico, un agente/sistema AI non può essere ritenuto legalmente responsabile per perdite o danni causati. Al contrario, non ha diritti legali per proteggersi da abusi e usi indesiderati poiché non è protetto dalle leggi contrattuali.
Proposte di Regolamentazione
1. Gli agenti/sistemi AI ad alto impatto devono essere registrati dalle autorità competenti prima del loro dispiegamento.
2. A seconda dei potenziali scenari peggiori, l’agente/sistema AI registrato deve essere coperto da un capitale sufficiente e/o assicurazione per eventuali responsabilità o danni causati dalle sue azioni e attività.
3. PER ULTERIORI CONSIDERAZIONI E DELIBERAZIONI. Nei casi di responsabilità penale, i decisori chiave degli agenti/sistemi AI saranno perseguiti in base alle leggi applicabili. Questo è parallelo alle responsabilità del CEO/COO/CFO in una società/organizzazione registrata.
Conclusione
La creazione di un quadro legale chiaro e ben definito per gli agenti AI non solo promuoverà l’innovazione responsabile ma garantirà anche che i diritti e le responsabilità siano chiaramente stabiliti. Ciò è fondamentale per garantire che la tecnologia AI possa essere utilizzata in modo sicuro e responsabile, a beneficio di tutta la società.