Moratoria sull’AI: Impatti e Opportunità per la Sanità

Il Progetto di Moratoria della One Big Beautiful Bill Act sulla Legislazione Statale in Materia di AI: Cosa Devono Sapere le Organizzazioni Sanitarie

Il Congresso sta valutando una proposta radicale che potrebbe ridefinire significativamente il modo in cui l’intelligenza artificiale (AI) è regolata negli Stati Uniti. Alla fine di maggio, la Camera dei Rappresentanti degli Stati Uniti ha approvato, con un voto di 215-214, la One Big Beautiful Bill Act (OBBBA), un disegno di legge di riconciliazione di bilancio che prevede una moratoria di 10 anni sull’applicazione della maggior parte delle leggi statali e locali che mirano ai sistemi AI.

Se approvata, l’OBBBA sospenderebbe l’applicazione delle leggi e delle normative statali esistenti in materia di AI e avrebbe la precedenza sulle nuove legislazioni in materia di AI nelle legislature statali di tutto il paese.

Cosa Farebbe l’OBBBA

La Sezione 43201 dell’OBBBA proibisce l’applicazione di qualsiasi legge o normativa statale o locale che “limiti, restringa o regoli in altro modo” i modelli di AI, i sistemi AI o i sistemi di decisione automatizzati. L’OBBBA definisce l’AI come un “sistema basato su macchina che può, per un dato insieme di obiettivi definiti dall’uomo, fare previsioni, raccomandazioni o decisioni che influenzano ambienti reali o virtuali”.

La definizione di “sistemi di decisione automatizzati” è anch’essa ampia, comprendendo “qualsiasi processo computazionale derivato da apprendimento automatico, modellazione statistica, analisi dei dati o AI che emette un output semplificato (ad es. un punteggio, una classificazione o una raccomandazione) per influenzare o sostituire materialmente il processo decisionale umano.”

Come proposto, l’OBBBA prevarrebbe su diverse restrizioni già attuate e proposte sull’uso dell’AI in ambito sanitario, tra cui:

  • California AB 3030, che (con poche eccezioni) impone disclaimer quando l’AI generativa è utilizzata per comunicare informazioni cliniche ai pazienti e richiede che i pazienti siano informati su come contattare un fornitore umano;
  • California SB 1120, che vieta alle compagnie di assicurazione sanitaria di utilizzare l’AI per negare copertura senza un’adeguata supervisione umana;
  • Colorado Artificial Intelligence Act, che regola gli sviluppatori e i fornitori di sistemi AI, in particolare quelli considerati “ad alto rischio”;
  • Utah Artificial Intelligence Policy Act, che richiede alle professioni regolate (compresi i professionisti sanitari) di divulgare chiaramente all’inizio di qualsiasi comunicazione che un consumatore sta interagendo con un’AI generativa;
  • Massachusetts Bill S.46, che, come proposto, richiederebbe ai fornitori di assistenza sanitaria di divulgare l’uso dell’AI per prendere decisioni che influenzano la cura dei pazienti.

Eccezioni Importanti

È importante notare, tuttavia, che l’OBBBA contiene eccezioni che probabilmente accenderanno un dibattito sulla vera portata della moratoria. Sotto l’OBBBA, le leggi e le normative statali sull’AI rimarranno applicabili (e non precluse) se rientrano in una delle seguenti eccezioni:

  • Eccezione per Scopo e Effetto Primari. La legge o normativa statale ha lo “scopo e l’effetto primari”, rispetto all’adozione di sistemi di AI o di decisione automatizzata, di: (i) rimuovere impedimenti legali; (ii) facilitare il dispiegamento o l’operazione; o (iii) consolidare le procedure amministrative;
  • Eccezione per Nessun Imposizione di Design, Prestazioni e Gestione dei Dati. La legge o normativa statale non impone requisiti sostanziali di design, prestazioni, gestione dei dati, documentazione, responsabilità civile, tassazione, commissioni o requisiti simili sui sistemi di AI o di decisione automatizzata, a meno che tali requisiti non siano imposti dalla legge federale o siano generalmente applicabili ad altri modelli e sistemi che svolgono funzioni simili;
  • Eccezione per Commissioni Ragionevoli e Basate sui Costi. La legge o normativa statale impone solo commissioni o obbligazioni che sono “ragionevoli e basate sui costi” e imposte in modo uguale ad altri modelli di AI, sistemi AI e sistemi di decisione automatizzata che svolgono funzioni comparabili.

Le ultime due eccezioni, in particolare, implicano che la moratoria influenzerebbe solo quelle leggi statali che trattano i sistemi AI in modo diverso rispetto ad altri sistemi. Di conseguenza, le leggi di applicazione generale a livello statale e federale continuerebbero a regolare l’AI, comprese quelle riguardanti l’anti-discriminazione, la privacy e la protezione dei consumatori.

Perché È Importante per le Parti Interessate della Sanità

La proposta di moratoria fa parte della più ampia enfasi dell’Amministrazione Trump sull’innovazione rispetto alla regolamentazione nel settore dell’AI. I sostenitori sostengono che uno standard federale unico aiuterebbe a ridurre i costi di conformità per gli sviluppatori di AI, eliminando la necessità di monitorare e implementare le norme sull’AI in 50 stati. Questo, a sua volta, incoraggerebbe l’innovazione e proteggerebbe la competitività nazionale, mentre gli Stati Uniti cercano di tenere il passo con l’Unione Europea e la Cina nello sviluppo dell’AI.

Tuttavia, per i fornitori di assistenza sanitaria, i compromessi sono complessi. La regolamentazione a livello statale ha i suoi vantaggi. Ad esempio, i pazienti potrebbero diventare sospettosi nei confronti delle cure abilitate dall’AI se la trasparenza e la supervisione sembrano diminuire, specialmente in aree sensibili come la diagnosi, il triage delle cure o la salute comportamentale. Inoltre, gli stati spesso agiscono come primi rispondenti ai rischi emergenti. Una moratoria potrebbe impedire ai regolatori di affrontare le preoccupazioni cliniche in evoluzione relative agli strumenti di AI, specialmente data la mancanza di robuste normative federali in questo ambito.

Criticità Legali e Procedurali

La moratoria affronta anche notevoli ostacoli costituzionali e procedurali. Ad esempio, studiosi di diritto e 40 procuratori generali statali bipartisan hanno sollevato preoccupazioni sul fatto che l’OBBBA possa violare i poteri della polizia statale relativi alla salute e alla sicurezza, sollevando potenzialmente questioni ai sensi del Decimo Emendamento. Inoltre, se approvata, la moratoria è destinata a affrontare sfide legali in tribunale, data l’opposizione bipartisan.

Cosa Devono Fare Ora le Organizzazioni Sanitarie

Le organizzazioni sanitarie dovrebbero mantenere solide pratiche di conformità e rimanere aggiornate sulle leggi di applicazione generale, come l’HIPAA e le leggi statali sulla privacy e sicurezza dei dati, poiché gli strumenti di AI saranno probabilmente soggetti a tali leggi, nonostante le incertezze che potrebbero sorgere se l’OBBBA venisse approvata. Anche se la moratoria non passa al Senato degli Stati Uniti, il Congresso ha chiaramente segnalato un crescente intento di regolamentare l’AI—sia attraverso future legislazioni o regolamenti condotti da enti come il Dipartimento della Salute e dei Servizi Umani degli Stati Uniti o la Food and Drug Administration.

In quanto tale, le organizzazioni sanitarie dovrebbero avere una visione chiara sulle politiche e pratiche della propria organizzazione riguardanti la conformità all’AI, inclusi i seguenti aspetti:

  • Mantenere la Prontezza alla Conformità. Continuare a monitorare e prepararsi per le normative statali sull’AI che sono attualmente in vigore o che saranno implementate a breve.
  • Auditing delle Implementazioni AI Correnti. Valutare come gli strumenti di AI sono attualmente utilizzati nelle funzioni cliniche, operative e amministrative e continuare a valutare la loro conformità con i più ampi quadri legali, inclusi, ma non limitati a, HIPAA, FDCA, FTC Act, Titolo VI e leggi sulla protezione dei consumatori.
  • Impegnarsi nella Pianificazione Strategica. A seconda che la moratoria venga approvata dal Senato degli Stati Uniti e sopravviva a scrutinio legale, le organizzazioni potrebbero dover ricalibrare i programmi di conformità.

Indipendentemente dal fatto che l’OBBBA venga infine approvata, la proposta di moratoria federale sull’applicazione dell’AI segna un momento cruciale nell’evoluzione del panorama normativo dell’AI nella sanità. I fornitori farebbero bene a rimanere proattivi, ben informati e pronti ad adattarsi agli sviluppi legali e normativi in evoluzione.

More Insights

Microsoft e Meta: scelte opposte sul codice etico dell’IA

Microsoft è probabile che firmi il codice di condotta dell'Unione Europea per garantire la conformità con le normative sull'intelligenza artificiale, mentre Meta ha annunciato che non firmerà il...

Legge sull’IA in Colorado: un nuovo standard per il futuro

La recente spinta fallita da parte dei membri del Congresso per congelare le leggi sull'intelligenza artificiale a livello statale ha lasciato le aziende statunitensi con operazioni nazionali di...

Piano d’Azione per l’AI: Verso Etica e Innovazione

Il prossimo Piano d'azione sulla tecnologia AI 2026–2030 della Malesia rafforzerà le salvaguardie etiche e i quadri di governance riguardanti l'uso dell'intelligenza artificiale. Il Ministro Digitale...

Strategie e Politiche AI: Un Futuro Condiviso

Lo sviluppo di politiche e strategie responsabili per l'intelligenza artificiale (AI) deve avvenire simultaneamente piuttosto che in modo sequenziale. Questo è stato condiviso da un relatore durante...

Rischi sistemici dell’IA: Linee guida per la conformità alle normative europee

La Commissione Europea ha presentato linee guida per aiutare i modelli di intelligenza artificiale che presentano rischi sistemici a conformarsi alla regolamentazione dell'Unione Europea...

Kerala: Pioniere dell’AI Etica nell’Istruzione

Il Kerala sta emergendo come un leader globale nell'intelligenza artificiale etica e nell'istruzione, adottando un approccio che combina visione governativa, innovazione e impegno per l'equità...

Stati e la Nuova Era della Regolamentazione dell’Intelligenza Artificiale

Le leggi sull'intelligenza artificiale negli Stati Uniti stanno rapidamente aumentando, poiché gli stati, come California e Colorado, stanno implementando norme per affrontare questioni come la...

Intelligenza Artificiale e Compliance: Rischi e Opportunità

L'IA nella compliance è qui e si integra nelle operazioni quotidiane di molte organizzazioni, migliorando le capacità di rilevamento e automatizzando compiti intensivi in termini di risorse. Tuttavia...

Censura alimentata dall’IA: la nuova era della regolamentazione in Europa

Le nuove norme "di sicurezza e protezione" dell'UE richiederanno alle aziende tecnologiche di censurare e moderare i contenuti sui modelli di intelligenza artificiale (IA) a uso generale per prevenire...