Regolamentazione superficiale: la vera faccia dell’AI

Regolamentazione Superficiale dell’AI

All’inizio di quest’anno, il Ministro delle Tecnologie dell’Informazione e delle Telecomunicazioni ha parlato della necessità di una governance etica dell’AI durante una conferenza internazionale. I suoi commenti sono arrivati in un momento in cui il governo aveva appena approvato emendamenti alla Legge sulla Prevenzione dei Crimini Elettronici, considerati da molti come una violazione dei diritti umani, e una vasta Legge sulla Nazione Digitale con l’obiettivo esplicito di promuovere le infrastrutture pubbliche digitali senza salvaguardie per la privacy dei dati.

Il Ministro non ha fornito dettagli specifici su cosa dovrebbe comprendere un quadro di governance etica per l’AI, né ha accennato al progetto di legge sull’AI attualmente in discussione. Le parole chiave intorno alla governance dell’AI e alla governance digitale in generale nascondono spesso la vera motivazione dietro queste richieste di regolamentazione, che è il controllo, in particolare dei media.

Minacce dell’AI per i Media

Molti temono la minaccia che l’intelligenza artificiale pone ai media e al nostro ecosistema informativo. La proliferazione dell’AI generativa ha accelerato queste preoccupazioni, portandole alla ribalta dell’attenzione pubblica. Molti hanno già fatto previsioni apocalittiche riguardo alla diffusione incontrollata della disinformazione e all’amplificazione di contenuti dannosi, portando a richieste affrettate per maggiori restrizioni sulla <libertà di espressione e sull’accesso alle informazioni su Internet.

Tuttavia, la maggior parte delle proposte per regolamentare l’AI mirano solo a regolamentare superficialmente i suoi output e i risultati anziché promuovere una regolamentazione sostanziale centrata sulla trasparenza e sull’responsabilità.

Conseguenze dell’AI

Non si può negare il danno ai media e alla libertà di espressione causato dall’AI. Molti giornalisti hanno lanciato allerta da tempo. La capacità dell’AI di generare contenuti non autentici su larga scala e il suo ruolo nell’amplificazione dei contenuti rappresentano una seria preoccupazione, specialmente in contesti come quello pakistano, dove la alfabetizzazione digitale e mediatica è bassa, rendendo gli utenti suscettibili a informazioni manipolate.

Le proposte normative si concentrano sulla regolamentazione dei contenuti piuttosto che affrontare le complessità della governance dell’intelligenza artificiale.

Modello di Regolamentazione

Una regolamentazione modellata dell’AI pone i diritti umani, la trasparenza e l’responsabilità al centro del suo discorso. Gli standard emergenti sui diritti umani riguardo l’AI richiedono che il suo sviluppo, implementazione e utilizzo avvengano in modo trasparente. Esistono percorsi chiari per la responsabilità per i danni causati dall’uso dell’AI, i cui potenziali danni sono più ampi di quanto indichi l’attuale discorso sulla disinformazione.

Questi includono preoccupazioni relative a tecnologie come il riconoscimento facciale, il policing predittivo e l’accentuazione di sistemi discriminatori, particolarmente quando vengono utilizzati per fornire servizi essenziali e di welfare.

Molte delle conversazioni sulla regolamentazione dell’AI ignorano il lavoro invisibile che la sostiene, che proviene in gran parte dalla maggioranza globale. Indagini hanno dimostrato che lo sviluppo della maggior parte degli strumenti di AI è incentrato sulla etichettatura manuale dei dati eseguita da lavoratori esternalizzati.

Leggi e Proposte Normative

Abbiamo leggi e legislazioni proposte che cercano di regolamentare i contenuti generati dall’AI basandosi su motivi vaghi come la disinformazione o la sicurezza nazionale, pretesti per sopprimere il dissenso. L’intenzione è raramente quella di mitigare il danno e più frequentemente quella di regolare il discorso che potrebbe disturbare i potenti.

Non si può negare che i governi abbiano preoccupazioni valide riguardo all’AI generativa, soprattutto dove le false accuse sono frequenti. Tuttavia, una regolamentazione ampia in nome dell’AI è poco più di scuse convenienti per promulgare leggi che limitano la libertà di espressione.

Speranza per il Futuro

Ci sono segnali di speranza. L’ultima volta che il progetto di legge sull’AI è stato discusso dal Comitato Permanente del Senato, i membri e il Ministero hanno raccomandato un approccio cauto, avvertendo che potrebbe essere prematuro stabilire un regolatore dedicato all’AI in questa fase, poiché l’ecosistema è ancora in fase di sviluppo.

La richiesta di cautela e il riconoscimento delle complessità coinvolte sono segnali positivi. Si spera che questa saggezza continui a prevalere. Un quadro normativo che centri l’equità, la trasparenza e l’responsabilità, non la censura, è essenziale. La regolamentazione dell’AI deve proteggere le persone, non silenziarle.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...