AI NEWS—L’amministrazione rilascia un quadro normativo sull’IA, chiede al Congresso di deferire ai tribunali sull’uso equo
Il quadro normativo chiede al Congresso di considerare l’istituzione di una struttura che protegga gli individui dalla distribuzione non autorizzata o dall’uso commerciale di repliche generate dall’IA della loro voce, sembianza o altri attributi identificabili. Tale struttura dovrebbe includere eccezioni chiare per parodie, satira, reportage e altre opere espressive protette dal Primo Emendamento.
Posizioni dell’Amministrazione
L’amministrazione ha delineato le proprie opinioni sull’intelligenza artificiale, inclusi i ruoli che prevede per il Congresso e gli stati, in un quadro politico nazionale sull’IA. Tra le altre cose, l’amministrazione ha dichiarato che “i creatori, editori e innovatori americani dovrebbero essere protetti dagli output generati dall’IA che violano i loro contenuti protetti, senza compromettere l’innovazione legittima e la libertà di espressione.”
L’amministrazione ha espresso la propria opinione che l’addestramento di modelli di IA su materiale protetto da copyright non violi le leggi sul copyright, ma ha riconosciuto l’esistenza di punti di vista contrari. Pertanto, ha sostenuto di lasciare ai tribunali la risoluzione della questione e ha diretto il Congresso a non intraprendere azioni che ostacolino la risoluzione giudiziaria se l’addestramento su materiale protetto da copyright costituisca uso equo.
Interventi del Congresso
Secondo l’amministrazione, il Congresso può intervenire per abilitare strutture di licenza o sistemi di diritti collettivi per i titolari di diritti per negoziare collettivamente compensi dai fornitori di IA, senza incorrere in responsabilità antitrust.
Repliche digitali non autorizzate
Inoltre, l’amministrazione ha chiesto al Congresso di considerare l’istituzione di un quadro federale che protegga gli individui dalla distribuzione non autorizzata o dall’uso commerciale di repliche digitali generate dall’IA della loro voce, sembianza o altri attributi identificabili. Questa struttura dovrebbe includere eccezioni chiare per parodie, satira, reportage e altre opere espressive protette dal Primo Emendamento.
Regulatory Sandboxes
Nel quadro dell’IA, l’amministrazione ha anche diretto il Congresso a stabilire “regulatory sandboxes” per le applicazioni IA che aiutino a promuovere la leadership americana nello sviluppo e nella diffusione dell’IA. Tuttavia, ha avvertito il Congresso di non creare un nuovo ente federale di regolamentazione per l’IA. Invece, ha incoraggiato l’implementazione di applicazioni IA specifiche per settore attraverso enti regolatori esistenti con competenze specifiche del settore e attraverso standard guidati dall’industria.
Diritti degli stati
L’amministrazione prevede un quadro normativo federale per l’IA per supportare l’innovazione e prevenire un “patchwork frammentato di regolamenti statali… rispettando al contempo il federalismo e i diritti degli stati.” Nel documento politico, l’amministrazione chiede specificamente al Congresso di precludere le leggi statali sull’IA che impongano oneri eccessivi per garantire uno standard nazionale, “non cinquanta discordanti.”
L’amministrazione ha chiarito che lo standard nazionale non dovrebbe precludere i poteri tradizionali di polizia riservati agli stati per far rispettare leggi di applicazione generale contro gli sviluppatori e gli utenti di IA, leggi di zonizzazione statale per determinare la collocazione delle infrastrutture IA o requisiti che regolano l’uso della IA da parte di uno stato, sia attraverso l’approvvigionamento che i servizi.
L’amministrazione crede che gli stati debbano garantire che le loro leggi non regolino aree più adatte al governo federale o agiscano in contrasto con la strategia nazionale per l’IA. “Gli stati non dovrebbero essere autorizzati a regolare lo sviluppo dell’IA, poiché è un fenomeno intrinsecamente interstatale con implicazioni chiave per la politica estera e la sicurezza nazionale,” ha affermato l’amministrazione. Inoltre, ha chiesto agli stati di non gravare eccessivamente sull’uso dell’IA da parte degli americani per attività che sarebbero lecite se svolte senza IA, o di penalizzare gli sviluppatori di IA per la condotta illecita di terzi utilizzando i modelli di IA degli sviluppatori.