Regolamentazione superficiale: la vera faccia dell’AI

Regolamentazione Superficiale dell’AI

All’inizio di quest’anno, il Ministro delle Tecnologie dell’Informazione e delle Telecomunicazioni ha parlato della necessità di una governance etica dell’AI durante una conferenza internazionale. I suoi commenti sono arrivati in un momento in cui il governo aveva appena approvato emendamenti alla Legge sulla Prevenzione dei Crimini Elettronici, considerati da molti come una violazione dei diritti umani, e una vasta Legge sulla Nazione Digitale con l’obiettivo esplicito di promuovere le infrastrutture pubbliche digitali senza salvaguardie per la privacy dei dati.

Il Ministro non ha fornito dettagli specifici su cosa dovrebbe comprendere un quadro di governance etica per l’AI, né ha accennato al progetto di legge sull’AI attualmente in discussione. Le parole chiave intorno alla governance dell’AI e alla governance digitale in generale nascondono spesso la vera motivazione dietro queste richieste di regolamentazione, che è il controllo, in particolare dei media.

Minacce dell’AI per i Media

Molti temono la minaccia che l’intelligenza artificiale pone ai media e al nostro ecosistema informativo. La proliferazione dell’AI generativa ha accelerato queste preoccupazioni, portandole alla ribalta dell’attenzione pubblica. Molti hanno già fatto previsioni apocalittiche riguardo alla diffusione incontrollata della disinformazione e all’amplificazione di contenuti dannosi, portando a richieste affrettate per maggiori restrizioni sulla <libertà di espressione e sull’accesso alle informazioni su Internet.

Tuttavia, la maggior parte delle proposte per regolamentare l’AI mirano solo a regolamentare superficialmente i suoi output e i risultati anziché promuovere una regolamentazione sostanziale centrata sulla trasparenza e sull’responsabilità.

Conseguenze dell’AI

Non si può negare il danno ai media e alla libertà di espressione causato dall’AI. Molti giornalisti hanno lanciato allerta da tempo. La capacità dell’AI di generare contenuti non autentici su larga scala e il suo ruolo nell’amplificazione dei contenuti rappresentano una seria preoccupazione, specialmente in contesti come quello pakistano, dove la alfabetizzazione digitale e mediatica è bassa, rendendo gli utenti suscettibili a informazioni manipolate.

Le proposte normative si concentrano sulla regolamentazione dei contenuti piuttosto che affrontare le complessità della governance dell’intelligenza artificiale.

Modello di Regolamentazione

Una regolamentazione modellata dell’AI pone i diritti umani, la trasparenza e l’responsabilità al centro del suo discorso. Gli standard emergenti sui diritti umani riguardo l’AI richiedono che il suo sviluppo, implementazione e utilizzo avvengano in modo trasparente. Esistono percorsi chiari per la responsabilità per i danni causati dall’uso dell’AI, i cui potenziali danni sono più ampi di quanto indichi l’attuale discorso sulla disinformazione.

Questi includono preoccupazioni relative a tecnologie come il riconoscimento facciale, il policing predittivo e l’accentuazione di sistemi discriminatori, particolarmente quando vengono utilizzati per fornire servizi essenziali e di welfare.

Molte delle conversazioni sulla regolamentazione dell’AI ignorano il lavoro invisibile che la sostiene, che proviene in gran parte dalla maggioranza globale. Indagini hanno dimostrato che lo sviluppo della maggior parte degli strumenti di AI è incentrato sulla etichettatura manuale dei dati eseguita da lavoratori esternalizzati.

Leggi e Proposte Normative

Abbiamo leggi e legislazioni proposte che cercano di regolamentare i contenuti generati dall’AI basandosi su motivi vaghi come la disinformazione o la sicurezza nazionale, pretesti per sopprimere il dissenso. L’intenzione è raramente quella di mitigare il danno e più frequentemente quella di regolare il discorso che potrebbe disturbare i potenti.

Non si può negare che i governi abbiano preoccupazioni valide riguardo all’AI generativa, soprattutto dove le false accuse sono frequenti. Tuttavia, una regolamentazione ampia in nome dell’AI è poco più di scuse convenienti per promulgare leggi che limitano la libertà di espressione.

Speranza per il Futuro

Ci sono segnali di speranza. L’ultima volta che il progetto di legge sull’AI è stato discusso dal Comitato Permanente del Senato, i membri e il Ministero hanno raccomandato un approccio cauto, avvertendo che potrebbe essere prematuro stabilire un regolatore dedicato all’AI in questa fase, poiché l’ecosistema è ancora in fase di sviluppo.

La richiesta di cautela e il riconoscimento delle complessità coinvolte sono segnali positivi. Si spera che questa saggezza continui a prevalere. Un quadro normativo che centri l’equità, la trasparenza e l’responsabilità, non la censura, è essenziale. La regolamentazione dell’AI deve proteggere le persone, non silenziarle.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...