L’Intelligenza Artificiale tra Finanza e Copyright
Durante i negoziati sull’AI Act, nessuno voleva parlare di copyright. Ora, scrittori, musicisti e creativi sono lasciati esposti a una lacuna legale irresponsabile.
Durante i negoziati sull’AI Act, nessuno voleva parlare di copyright. Ora, scrittori, musicisti e creativi sono lasciati esposti a una lacuna legale irresponsabile.
La Spagna ha approvato una legge sull’IA che prevede pesanti multe per i contenuti generati dall’IA non etichettati, inclusi i deepfake. Questa legge rappresenta un passo significativo nell’attuazione dell’Atto sull’IA dell’UE, stabilendo regole rigorose per la gestione dei contenuti generati artificialmente.
La Spagna ha approvato una nuova legislazione per regolare i contenuti generati dall’IA, imponendo sanzioni significative alle aziende che non etichettano adeguatamente tali contenuti. Questa legge mira a combattere l’uso improprio dei deepfake e a migliorare la trasparenza nell’uso dell’intelligenza artificiale.
Il governo laburista non è riuscito a introdurre misure per regolare l’IA, quindi un progetto di legge dei membri privati della Camera dei Lord mira a farlo. È giunto il momento di affrontare l’urgenza della regolamentazione dell’IA, poiché la mancanza di regolamenti specifici ci espone a rischi significativi.
Dopo l’insediamento di Donald Trump, gli Stati Uniti hanno rapidamente abbandonato le preoccupazioni riguardo alla sicurezza dell’IA, concentrandosi esclusivamente su argomenti economici e competitivi. Questa nuova direzione ha portato a una mancanza di regolamentazione e a un aumento dei rischi associati alla tecnologia dell’intelligenza artificiale.
Le soluzioni guidate dall’IA stanno rapidamente diventando parte integrante di diverse industrie, ma la loro efficacia dipende dalla qualità dei dati su cui sono addestrate. Con l’aumento della sorveglianza da parte delle autorità di protezione dei dati, le aziende devono affrontare la pressione di ottenere e gestire i dataset in modi conformi ed etici.
I CEO del Regno Unito stanno guidando l’implementazione dell’intelligenza artificiale (AI) sul posto di lavoro rispetto ai loro omologhi europei, che stanno affrontando difficoltà a causa della regolamentazione. Una nuova ricerca ha evidenziato un divario significativo nell’adozione tra il Regno Unito e l’UE a causa delle preoccupazioni normative.
Un nuovo progetto di codice di condotta per i modelli di intelligenza artificiale generali (GPAI) è stato pubblicato in vista di una scadenza di maggio per finalizzare le linee guida per i fornitori. Questa bozza è considerata l’ultima e mira a semplificare la struttura e le misure rispetto alle versioni precedenti.
I Ministri Burke e Smyth hanno accolto l’approvazione del governo per la roadmap di attuazione del Regolamento sull’Intelligenza Artificiale dell’UE. Questo approccio prevede che otto enti pubblici siano designati come autorità competenti per l’attuazione e l’applicazione della legge nei rispettivi settori.
L’Unione Europea ha pubblicato una nuova bozza di regole per le aziende che utilizzano modelli di intelligenza artificiale “generale”, come GPT-4 di OpenAI. Tuttavia, i critici avvertono che le proposte sollevano ancora “preoccupazioni significative” per le aziende tecnologiche che operano nel continente.