Regolamentazione superficiale: la vera faccia dell’AI

Regolamentazione Superficiale dell’AI

All’inizio di quest’anno, il Ministro delle Tecnologie dell’Informazione e delle Telecomunicazioni ha parlato della necessità di una governance etica dell’AI durante una conferenza internazionale. I suoi commenti sono arrivati in un momento in cui il governo aveva appena approvato emendamenti alla Legge sulla Prevenzione dei Crimini Elettronici, considerati da molti come una violazione dei diritti umani, e una vasta Legge sulla Nazione Digitale con l’obiettivo esplicito di promuovere le infrastrutture pubbliche digitali senza salvaguardie per la privacy dei dati.

Il Ministro non ha fornito dettagli specifici su cosa dovrebbe comprendere un quadro di governance etica per l’AI, né ha accennato al progetto di legge sull’AI attualmente in discussione. Le parole chiave intorno alla governance dell’AI e alla governance digitale in generale nascondono spesso la vera motivazione dietro queste richieste di regolamentazione, che è il controllo, in particolare dei media.

Minacce dell’AI per i Media

Molti temono la minaccia che l’intelligenza artificiale pone ai media e al nostro ecosistema informativo. La proliferazione dell’AI generativa ha accelerato queste preoccupazioni, portandole alla ribalta dell’attenzione pubblica. Molti hanno già fatto previsioni apocalittiche riguardo alla diffusione incontrollata della disinformazione e all’amplificazione di contenuti dannosi, portando a richieste affrettate per maggiori restrizioni sulla <libertà di espressione e sull’accesso alle informazioni su Internet.

Tuttavia, la maggior parte delle proposte per regolamentare l’AI mirano solo a regolamentare superficialmente i suoi output e i risultati anziché promuovere una regolamentazione sostanziale centrata sulla trasparenza e sull’responsabilità.

Conseguenze dell’AI

Non si può negare il danno ai media e alla libertà di espressione causato dall’AI. Molti giornalisti hanno lanciato allerta da tempo. La capacità dell’AI di generare contenuti non autentici su larga scala e il suo ruolo nell’amplificazione dei contenuti rappresentano una seria preoccupazione, specialmente in contesti come quello pakistano, dove la alfabetizzazione digitale e mediatica è bassa, rendendo gli utenti suscettibili a informazioni manipolate.

Le proposte normative si concentrano sulla regolamentazione dei contenuti piuttosto che affrontare le complessità della governance dell’intelligenza artificiale.

Modello di Regolamentazione

Una regolamentazione modellata dell’AI pone i diritti umani, la trasparenza e l’responsabilità al centro del suo discorso. Gli standard emergenti sui diritti umani riguardo l’AI richiedono che il suo sviluppo, implementazione e utilizzo avvengano in modo trasparente. Esistono percorsi chiari per la responsabilità per i danni causati dall’uso dell’AI, i cui potenziali danni sono più ampi di quanto indichi l’attuale discorso sulla disinformazione.

Questi includono preoccupazioni relative a tecnologie come il riconoscimento facciale, il policing predittivo e l’accentuazione di sistemi discriminatori, particolarmente quando vengono utilizzati per fornire servizi essenziali e di welfare.

Molte delle conversazioni sulla regolamentazione dell’AI ignorano il lavoro invisibile che la sostiene, che proviene in gran parte dalla maggioranza globale. Indagini hanno dimostrato che lo sviluppo della maggior parte degli strumenti di AI è incentrato sulla etichettatura manuale dei dati eseguita da lavoratori esternalizzati.

Leggi e Proposte Normative

Abbiamo leggi e legislazioni proposte che cercano di regolamentare i contenuti generati dall’AI basandosi su motivi vaghi come la disinformazione o la sicurezza nazionale, pretesti per sopprimere il dissenso. L’intenzione è raramente quella di mitigare il danno e più frequentemente quella di regolare il discorso che potrebbe disturbare i potenti.

Non si può negare che i governi abbiano preoccupazioni valide riguardo all’AI generativa, soprattutto dove le false accuse sono frequenti. Tuttavia, una regolamentazione ampia in nome dell’AI è poco più di scuse convenienti per promulgare leggi che limitano la libertà di espressione.

Speranza per il Futuro

Ci sono segnali di speranza. L’ultima volta che il progetto di legge sull’AI è stato discusso dal Comitato Permanente del Senato, i membri e il Ministero hanno raccomandato un approccio cauto, avvertendo che potrebbe essere prematuro stabilire un regolatore dedicato all’AI in questa fase, poiché l’ecosistema è ancora in fase di sviluppo.

La richiesta di cautela e il riconoscimento delle complessità coinvolte sono segnali positivi. Si spera che questa saggezza continui a prevalere. Un quadro normativo che centri l’equità, la trasparenza e l’responsabilità, non la censura, è essenziale. La regolamentazione dell’AI deve proteggere le persone, non silenziarle.

More Insights

Fiducia e Rischio nell’Era dell’AI

Per i marketer, l'IA promette un salto in produttività, ma solo se guidata da una strategia chiara e supervisione umana. La questione non è se utilizzare l'IA, ma come usarla in modo responsabile ed...

Governanza Cloud: Rilanciare l’Innovazione nell’Era dell’AI

Molti si concentrano sulle ultime innovazioni dell'IA, ma pochi prestano attenzione a un gap critico: i modelli di governance del cloud obsoleti. Questi modelli non sono stati costruiti per il ritmo...

Guida pratica per un’adozione responsabile dell’IA

Con l'intelligenza artificiale (IA) che diventa una parte fondamentale delle moderne attività commerciali, la Confederazione dell'Industria Indiana (CII) ha pubblicato una nuova guida per aiutare i...

Automazione Intelligente e Sicurezza: Rischi e Opportunità nel DevSecOps

L'adozione rapida dell'automazione alimentata dall'IA nel DevSecOps introduce opportunità e sfide significative. Sebbene l'automazione possa migliorare l'efficienza, è fondamentale garantire che le...

Centro di Eccellenza per l’Intelligenza Artificiale: La Nuova Frontiera del Diritto

In un importante sviluppo che pone l'India in prima linea nel dibattito globale sulla regolamentazione dell'intelligenza artificiale (AI), è stato annunciato l'istituzione del Centro Cyril Shroff per...

Politica AI: Semplificare la Governance per le Agenzie Pubbliche

Darwin ha annunciato il lancio del suo AI Policy Wizard, uno strumento gratuito e interattivo progettato per aiutare i governi locali e le agenzie pubbliche a creare politiche AI pratiche e conformi...

Riconquistare la Fiducia nell’Intelligenza Artificiale con la Governance

Le minacce poco chiare e il comportamento imprevedibile complicano la fiducia globale nell'IA. È essenziale utilizzare misure di governance come il Regolamento sull'IA dell'UE per stabilire una...

Cultura e AI: Costruire Fiducia nel Futuro Tecnologico

Questo rapporto esamina le soluzioni che enfatizzano gli accordi collaborativi e le iniziative interorganizzative per creare un input diversificato di idee. È fondamentale che la governance dell'IA...

La conformità al copyright nell’era dell’IA generativa

Una delle sfide principali nella formazione dei modelli di intelligenza artificiale generativa è garantire la conformità alle leggi sul copyright. L'AI Act dell'UE sottolinea la necessità di...