Leggi sull’AI: I nuovi provvedimenti del Texas

Un’analisi delle principali leggi sull’IA approvate dalla legislatura del Texas in questa sessione

Con l’avanzare dell’ intelligenza artificiale (IA) nel panorama globale, i governi si trovano a dover affrontare la sfida della regolamentazione di questa tecnologia. Le discussioni riguardanti discriminazione e privacy dei dati portano a normative che variano da stato a stato. Mentre non esiste una legislazione federale completa sull’IA, alcuni stati, come il Colorado, hanno adottato leggi proprie, mentre molti altri stati hanno normative che riguardano aspetti specifici o utilizzi dell’IA.

Attualmente, il Texas non dispone di una legge sull’IA che possa definirsi completa, ma alcuni progetti di legge legati all’IA sono stati inviati al governatore Greg Abbott e attendono la sua firma entro il 22 giugno. Se non verrà posto un veto a un progetto di legge entro quella data, esso diventerà automaticamente legge. Ecco un’analisi delle principali leggi pendenti sull’IA in Texas:

Il Texas Responsible AI Governance Act

Conosciuto anche come TRAIGA, questo progetto di legge rappresenterebbe la legge sull’IA più completa che il Texas possa avere. Una versione precedente del progetto, presentata nel 2024, era molto più ampia, ma la versione attuale è principalmente focalizzata sull’IA utilizzata dal governo, lasciando per lo più non regolata quella utilizzata dalle aziende commerciali.

TRAIGA proibirebbe al governo di utilizzare l’IA per emettere “punteggi sociali” agli individui. Il punteggio sociale è un metodo di tracciamento delle azioni delle persone e di “valutazione” per incoraggiare o dissuadere determinati comportamenti. Tuttavia, TRAIGA impedirebbe solo al governo di utilizzare punteggi sociali e non alle entità commerciali.

Inoltre, la legge proibirebbe al governo di utilizzare l’IA addestrata su immagini disponibili pubblicamente per identificare specifici individui. Anche le aziende sarebbero vietate dal raccogliere indicatori biometrici e dall’utilizzarli per scopi commerciali, con multe che potrebbero arrivare fino a $25,000.

Un’altra proibizione che si applica sia al governo che alle aziende è l’uso dell’IA in un modo che “punta intenzionalmente” a manipolare qualcuno per fargli del male, danneggiare qualcun altro o impegnarsi in attività illegali.

Regolamenti sui contenuti sessuali generati dall’IA, o deepfake

Una delle preoccupazioni più grandi riguardanti l’IA è la generazione di deepfake, in particolare contenuti sessuali deepfake privi di consenso. Sebbene non esista un divieto federale completo sui deepfake, la legge texana attuale designa i deepfake sessuali come un reato di classe A. Tuttavia, se Abbott firmerà il Senato Bill 441, tale accusa diventerebbe un reato di felonia se la persona rappresentata è un minorenne.

Inoltre, la House Bill 581 vieterebbe il materiale sessuale creato artificialmente “dannoso per i minorenni.” Questo progetto stabilisce che un sito disponibile al pubblico non può mostrare contenuti sessuali artificiali a meno che non vieti esplicitamente il materiale esplicito come politica o abbia un processo ragionevole di verifica dell’età per garantire che non ci siano minorenni sul sito.

Incorporare l’IA nel governo statale

Altri progetti di legge sul tavolo di Abbott forniscono indicazioni su come il governo del Texas dovrebbe utilizzare l’IA. Ad esempio, il Senate Bill 1964 richiederebbe la divulgazione pubblica di tutti i sistemi di IA utilizzati dal governo. Tuttavia, le entità commerciali non hanno requisiti di divulgazione simili.

In aggiunta, la House Bill 2818 creerebbe una Divisione per l’Intelligenza Artificiale per supervisionare l’implementazione dei sistemi di IA nel governo statale, al fine di “sostituire o modernizzare i sistemi legacy,” mentre la House Bill 3512 richiederebbe una formazione sull’intelligenza artificiale per tutti i dipendenti statali.

More Insights

Classifica il tuo sistema AI in pochi minuti

L'EU AI Act cambierà il modo in cui l'IA viene costruita, valutata e distribuita in Europa. Per facilitare la classificazione del rischio dei sistemi di intelligenza artificiale, è disponibile un...

Intelligenza artificiale e armonizzazione legale a Yokohama

L'Associazione Internazionale per la Protezione della Proprietà Intellettuale (AIPPI) si riunirà a Yokohama dal 13 al 16 settembre 2025, affrontando temi cruciali come l'intelligenza artificiale e il...

Legge sull’Intelligenza Artificiale in Colorado: Impatti e Responsabilità per le Aziende

La settimana scorsa, i legislatori del Colorado hanno tenuto una sessione speciale che ha portato a una decisione di posticipare l'implementazione della Colorado Artificial Intelligence Act (CAIA)...

Sorveglianza AI: Sicurezza e Privacy in Equilibrio

La sorveglianza guidata dall'IA offre vantaggi operativi reali, ma presenta anche rischi significativi per la privacy e le libertà civili. È fondamentale trovare un equilibrio umano che rispetti i...

AI Responsabile nel Settore Finanziario: Dalla Teoria alla Pratica

La discussione globale sull'intelligenza artificiale è entrata in una nuova fase, spostandosi verso la domanda su come utilizzare questi strumenti in modo responsabile, specialmente nei servizi...

Costruire AI di fiducia per un futuro sostenibile

La certificazione può trasformare la regolamentazione da un vincolo a un'opportunità, facilitando l'adozione di AI fidate e sostenibili. Con normative come l'AI Act dell'Unione Europea, le aziende che...

Intelligenza Artificiale Spiegabile: Costruire Fiducia nel Futuro

L'Intelligenza Artificiale Spiegabile (XAI) è essenziale per costruire fiducia, garantire trasparenza e consentire responsabilità in settori ad alto rischio come la sanità e la finanza. Le normative...

Regolamentare l’IA: Rischi e Opportunità per il Futuro

L'intelligenza artificiale è la tecnologia rivoluzionaria più trasformativa della nostra era, ma porta con sé enormi rischi. Senza una regolamentazione adeguata, questi rischi possono minare la...

Flussi AI Responsabili per la Ricerca UX

Questo articolo esplora come l'intelligenza artificiale può essere integrata in modo responsabile nei flussi di lavoro della ricerca UX, evidenziando i benefici e i rischi associati. L'AI può...