Futuro incerto per la legge sull’IA in Brasile

Il Futuro Incerto della Legge sull’IA in Brasile

Negli ultimi due anni, i legislatori brasiliani hanno dibattuto su come regolare l’intelligenza artificiale. Dopo mesi di discussione, il Senato ha votato un disegno di legge nel dicembre 2024, che ora è diretto alla camera bassa del Congresso. Tuttavia, il contesto mondiale, e in particolare il panorama tecnologico in cui il Senato ha approvato il disegno di legge, è cambiato notevolmente in sole due settimane.

La Situazione negli Stati Uniti

Negli Stati Uniti, Donald Trump non era ancora entrato in carica e non aveva revocato un Ordine Esecutivo del 2023 sull’IA, né aveva sostituito con un nuovo ordine mirato a “sostenere e migliorare il dominio globale dell’IA americana.” In modo significativo, i leader della Silicon Valley, come il fondatore e CEO di Meta, Mark Zuckerberg, non avevano ancora acconsentito pubblicamente alla visione dell’amministrazione entrante in materia di tecnologia e Stati Uniti. Questi eventi, avvenuti nelle ultime settimane, potrebbero avere un impatto significativo sulle possibilità che la legge sull’IA del Brasile diventi realmente operativa.

Il Quadro Normativo ‘Diluido’ del Senato

Il Brasile ha iniziato i suoi sforzi per regolare l’IA nel febbraio 2022, quando il presidente del Senato, Rodrigo Pacheco, ha formato un comitato di esperti legali incaricato di redigere un rapporto per guidare lo sviluppo della legislazione sull’IA. Nel dicembre dello stesso anno, gli esperti hanno consegnato a Pacheco un rapporto che raccomandava un approccio basato sul rischio alla regolazione dell’IA.

Molti degli elementi riportati nel rapporto degli esperti sono stati poi incorporati in un disegno di legge proposto da Pacheco nel maggio 2023. Per rivedere il disegno di legge, i senatori hanno creato una commissione temporanea per l’intelligenza artificiale che, in 19 mesi, ha discusso bozze, ha tenuto 24 riunioni e 14 audizioni pubbliche, raccogliendo input da decine di esperti esterni.

Nel dicembre 2024, la commissione ha approvato una versione “diluida” del disegno di legge, che il Senato ha approvato il giorno successivo. Tuttavia, l’organizzazione Data Privacy Brazil ha affermato che “la legislazione rimane protettiva dei diritti fondamentali e avanza standard cruciali per un ecosistema informativo equo negli anni a venire.”

Dettagli della Legislazione

La legislazione favorisce un modello normativo basato sul rischio, imponendo obblighi a sviluppatori, distributori e applicatori di sistemi ad alto rischio. Sotto questo regime, queste entità dovranno produrre valutazioni del rischio che affrontano i pregiudizi e la potenziale discriminazione, nonché creare canali per le persone colpite da decisioni automatizzate per appellarsi a revisori umani.

Il quadro normativo classifica alcune applicazioni, come il controllo del traffico, le ammissioni studentesche e il reclutamento e promozione dei dipendenti, come ad alto rischio. Tuttavia, le pressioni di lobbying dell’industria tecnologica hanno portato a diverse esclusioni significative. Ad esempio, gli algoritmi che curano, raccomandano e distribuiscono contenuti sui social media sono stati rimossi dalla categoria ad alto rischio, proteggendo le piattaforme da requisiti di maggiore controllo e trasparenza.

La caratteristica più distintiva del disegno di legge è forse una disposizione che obbliga le aziende a compensare i titolari dei diritti d’autore quando i loro contenuti o dati vengono utilizzati per addestrare i sistemi di IA. Crea anche un’eccezione, consentendo a istituzioni accademiche e pubbliche di utilizzare contenuti di terzi per addestrare sistemi di IA per scopi di ricerca.

Similitudini con la Legge sull’IA dell’Unione Europea

La legge brasiliana condivide alcune somiglianze con l’AI Act dell’Unione Europea, approvato nel marzo 2024. Entrambe adottano un modello normativo basato sul rischio strutturato attorno a diversi livelli di rischio. Tuttavia, un’analisi ha trovato che impone obblighi più ampi rispetto alla legislazione dell’UE. Diversamente dall’approccio dell’UE, che pone specifiche responsabilità su un gruppo selezionato di attori, il disegno di legge brasiliano si applica a più attori nella catena di fornitura dell’IA.

Lobbying e Resistenza alla Regolamentazione

La legge sull’IA ha affrontato una prevedibile opposizione da parte dei politici di destra, che sono stati veloci ad applicare l’etichetta di “censura”, anche se non regola contenuti o discorsi. Tuttavia, il lobbying delle aziende tecnologiche non ha seguito quel copione. Le aziende tecnologiche hanno adottato un approccio notevolmente diverso rispetto alle loro azioni relative al fallito “disegno di legge sulla disinformazione”, bloccando aggressivamente la legislazione.

In questo caso, le aziende non si sono opposte pubblicamente al disegno di legge. Invece, le loro argomentazioni contro il disegno di legge sono emerse attraverso senatori simpatici a un approccio normativo più indulgente o nei commenti di esperti esterni connessi ad organizzazioni finanziate da grandi aziende tecnologiche.

Conclusione

Con la legge brasiliana sull’IA ora che si dirige verso la Camera bassa del Congresso, i gruppi della società civile si aspettano una pressione ancora maggiore da parte di politici oppositori e del settore privato, in particolare delle grandi aziende tecnologiche. L’esperienza del Brasile potrebbe servire come esempio chiave di quanto lontano i giganti tecnologici statunitensi, ora sostenuti dal governo degli Stati Uniti, saranno disposti ad andare per plasmare la regolazione globale dell’IA a loro favore.

More Insights

USA rifiuta la governance globale dell’IA all’ONU

I funzionari statunitensi hanno rifiutato una spinta per stabilire un quadro di governance globale sull'intelligenza artificiale durante l'Assemblea generale delle Nazioni Unite di questa settimana...

Rischi e governance dell’AI agentica nelle aziende

Nel mondo in rapida evoluzione dell'intelligenza artificiale, le aziende stanno sempre più adottando sistemi AI agentici—programmi autonomi che possono prendere decisioni ed eseguire compiti senza...

Il ruolo crescente dell’IA come custode delle opinioni e le sue implicazioni sui bias nascosti

L'aumento del ruolo dei modelli di linguaggio di grandi dimensioni (LLM) come custodi delle opinioni solleva preoccupazioni riguardo ai bias nascosti che potrebbero distorcere il dibattito pubblico...

Regole e Responsabilità nell’Intelligenza Artificiale

Il mondo in crescita dell'intelligenza artificiale (AI) è a un punto critico, poiché un'ondata di azioni normative sottolinea una svolta globale verso la responsabilità e l'uso etico. Le recenti...

Strumenti di Governance AI: Scegliere con Intelligenza

Con l'adozione dell'IA generativa in rapido aumento, aumentano anche i rischi associati. Gli strumenti di governance dell'IA offrono un modo per gestire questi rischi, ma scegliere la soluzione giusta...

Consenso Globale per un’Intelligenza Artificiale Sicura e Affidabile

Le Nazioni Unite stanno facendo pressione per influenzare direttamente le politiche globali sull'intelligenza artificiale, promuovendo standard tecnici e normativi per un'IA "sicura, protetta e...

La governance dell’IA: Regole e pratiche per un futuro sostenibile

Recentemente, davanti a un pubblico attento a Singapore, si è svolta una conversazione che potrebbe riformulare il pensiero globale sulla regolamentazione dell'IA. I relatori hanno discusso di come il...

Prepararsi alle nuove normative europee sull’IA per le PMI

Immagina di essere il responsabile delle risorse umane di un'azienda di produzione di medie dimensioni con 250 dipendenti distribuiti in Europa e Nord America. La tua piccola squadra HR non può...

Nuove Normative sulla Segnalazione di Incidenti per l’IA in Europa

Il 26 settembre 2025, la Commissione Europea ha pubblicato una bozza di guida sui requisiti di segnalazione degli incidenti gravi per i sistemi di intelligenza artificiale ad alto rischio ai sensi...