Regolamentazione superficiale: la vera faccia dell’AI

Regolamentazione Superficiale dell’AI

All’inizio di quest’anno, il Ministro delle Tecnologie dell’Informazione e delle Telecomunicazioni ha parlato della necessità di una governance etica dell’AI durante una conferenza internazionale. I suoi commenti sono arrivati in un momento in cui il governo aveva appena approvato emendamenti alla Legge sulla Prevenzione dei Crimini Elettronici, considerati da molti come una violazione dei diritti umani, e una vasta Legge sulla Nazione Digitale con l’obiettivo esplicito di promuovere le infrastrutture pubbliche digitali senza salvaguardie per la privacy dei dati.

Il Ministro non ha fornito dettagli specifici su cosa dovrebbe comprendere un quadro di governance etica per l’AI, né ha accennato al progetto di legge sull’AI attualmente in discussione. Le parole chiave intorno alla governance dell’AI e alla governance digitale in generale nascondono spesso la vera motivazione dietro queste richieste di regolamentazione, che è il controllo, in particolare dei media.

Minacce dell’AI per i Media

Molti temono la minaccia che l’intelligenza artificiale pone ai media e al nostro ecosistema informativo. La proliferazione dell’AI generativa ha accelerato queste preoccupazioni, portandole alla ribalta dell’attenzione pubblica. Molti hanno già fatto previsioni apocalittiche riguardo alla diffusione incontrollata della disinformazione e all’amplificazione di contenuti dannosi, portando a richieste affrettate per maggiori restrizioni sulla <libertà di espressione e sull’accesso alle informazioni su Internet.

Tuttavia, la maggior parte delle proposte per regolamentare l’AI mirano solo a regolamentare superficialmente i suoi output e i risultati anziché promuovere una regolamentazione sostanziale centrata sulla trasparenza e sull’responsabilità.

Conseguenze dell’AI

Non si può negare il danno ai media e alla libertà di espressione causato dall’AI. Molti giornalisti hanno lanciato allerta da tempo. La capacità dell’AI di generare contenuti non autentici su larga scala e il suo ruolo nell’amplificazione dei contenuti rappresentano una seria preoccupazione, specialmente in contesti come quello pakistano, dove la alfabetizzazione digitale e mediatica è bassa, rendendo gli utenti suscettibili a informazioni manipolate.

Le proposte normative si concentrano sulla regolamentazione dei contenuti piuttosto che affrontare le complessità della governance dell’intelligenza artificiale.

Modello di Regolamentazione

Una regolamentazione modellata dell’AI pone i diritti umani, la trasparenza e l’responsabilità al centro del suo discorso. Gli standard emergenti sui diritti umani riguardo l’AI richiedono che il suo sviluppo, implementazione e utilizzo avvengano in modo trasparente. Esistono percorsi chiari per la responsabilità per i danni causati dall’uso dell’AI, i cui potenziali danni sono più ampi di quanto indichi l’attuale discorso sulla disinformazione.

Questi includono preoccupazioni relative a tecnologie come il riconoscimento facciale, il policing predittivo e l’accentuazione di sistemi discriminatori, particolarmente quando vengono utilizzati per fornire servizi essenziali e di welfare.

Molte delle conversazioni sulla regolamentazione dell’AI ignorano il lavoro invisibile che la sostiene, che proviene in gran parte dalla maggioranza globale. Indagini hanno dimostrato che lo sviluppo della maggior parte degli strumenti di AI è incentrato sulla etichettatura manuale dei dati eseguita da lavoratori esternalizzati.

Leggi e Proposte Normative

Abbiamo leggi e legislazioni proposte che cercano di regolamentare i contenuti generati dall’AI basandosi su motivi vaghi come la disinformazione o la sicurezza nazionale, pretesti per sopprimere il dissenso. L’intenzione è raramente quella di mitigare il danno e più frequentemente quella di regolare il discorso che potrebbe disturbare i potenti.

Non si può negare che i governi abbiano preoccupazioni valide riguardo all’AI generativa, soprattutto dove le false accuse sono frequenti. Tuttavia, una regolamentazione ampia in nome dell’AI è poco più di scuse convenienti per promulgare leggi che limitano la libertà di espressione.

Speranza per il Futuro

Ci sono segnali di speranza. L’ultima volta che il progetto di legge sull’AI è stato discusso dal Comitato Permanente del Senato, i membri e il Ministero hanno raccomandato un approccio cauto, avvertendo che potrebbe essere prematuro stabilire un regolatore dedicato all’AI in questa fase, poiché l’ecosistema è ancora in fase di sviluppo.

La richiesta di cautela e il riconoscimento delle complessità coinvolte sono segnali positivi. Si spera che questa saggezza continui a prevalere. Un quadro normativo che centri l’equità, la trasparenza e l’responsabilità, non la censura, è essenziale. La regolamentazione dell’AI deve proteggere le persone, non silenziarle.

More Insights

Rischi dell’IA: Impatti sulla Conformità Normativa

La rapida crescita dell'intelligenza artificiale (IA), in particolare dell'IA generativa e dei chatbot, offre alle aziende numerose opportunità per migliorare il loro lavoro con i clienti. Tuttavia...

Competenze di intelligenza artificiale: costruire un programma efficace

L'obbligo di alfabetizzazione sull'IA della legge sull'IA dell'UE si applica a chiunque utilizzi sistemi di IA connessi all'UE, richiedendo misure per garantire un livello sufficiente di...

Etica e Intelligenza Artificiale: Sfide e Opportunità

L'intelligenza artificiale (IA) sta trasformando il modo in cui le organizzazioni prendono decisioni critiche, ma solleva preoccupazioni riguardo a potenziali pregiudizi e mancanza di trasparenza. È...

Preparazione della Croazia per la Legge sull’IA: Rischi e Salvaguardie

L'affiliato di EDRi, Politiscope, ha recentemente ospitato un evento in Croazia per discutere l'impatto dei diritti umani dell'intelligenza artificiale (AI) e sensibilizzare sui danni legati all'AI...

Intelligenza Artificiale: Dovrebbe Avere Personalità Giuridica?

L'intelligenza artificiale non è più emergente, ma è consolidata, e le sue capacità stanno evolvendo più rapidamente dei quadri giuridici che dovrebbero regolarla. Dobbiamo affrontare la questione...

Provenienza dei dati: la chiave per la governance dell’IA

L'adozione dell'intelligenza artificiale nelle aziende è avvenuta in modo silenzioso e incrementale, ma ciò che preoccupa è l'assunzione di sicurezza che deriva dall'uso di modelli popolari. La vera...

Equilibrio e Innovazione nella Governance dell’IA nelle Filippine

Un legislatore nelle Filippine chiede un approccio cauto e consultivo alla regolamentazione dell'intelligenza artificiale (IA), sottolineando la necessità di garantire che le politiche promuovano un...

La Cina e il Futuro della Governance dell’AI: Un Modello Open-Source

La Cina sta facendo rapidi progressi nell'intelligenza artificiale (IA), guidata da aziende tecnologiche come Alibaba e Baidu, enfatizzando la collaborazione open-source. Questo approccio non solo...

Governare l’Intelligenza Artificiale: 9 Passi Fondamentali

Le organizzazioni stanno abbracciando il potenziale trasformativo dell'intelligenza artificiale (AI) e una verità diventa sempre più chiara: non è possibile scalare l'AI in modo sicuro senza...