Categoria: Intelligenza Artificiale

Legge Italiana sulla Trasparenza dell’IA: Un Passo Avanti per la Responsabilità Tecnologica

I legislatori della California hanno fatto notizia a livello globale approvando una legge fondamentale sulla trasparenza nell’IA, focalizzata specificamente sui “modelli di frontiera” — i sistemi di intelligenza artificiale più capaci e potenzialmente influenti attualmente in sviluppo. Questa legislazione, nota come il Transparency in Frontier Artificial Intelligence Act (SB 53), è stata elogiata come uno dei più forti quadri del mondo per garantire responsabilità, sicurezza e fiducia pubblica nel campo in rapida evoluzione dell’intelligenza artificiale.

Read More »

Ufficio AI: L’autorità centrale per la legge UE

Il governo ha designato 15 autorità competenti nell’ambito della AI Act dell’UE e ha annunciato l’intenzione di istituire un Ufficio Nazionale per l’Intelligenza Artificiale. Questo ufficio agirà come autorità centrale per coordinare l’attuazione della legge in Irlanda.

Read More »

Rischi e opportunità dell’AI nel reclutamento

L’uso di strumenti di intelligenza artificiale nel processo di assunzione consente alle aziende di ottimizzare le loro procedure, ma è fondamentale garantire che i sistemi siano trasparenti e non discriminatori. I datori di lavoro devono rispettare le normative sulla protezione dei dati e garantire il controllo umano per evitare problematiche legali.

Read More »

Quattro pilastri per un’IA responsabile

L’introduzione dell’IA generativa sta trasformando il modo in cui le aziende operano, ma implementare sistemi di IA senza adeguate protezioni è rischioso. Questo articolo esplora quattro categorie essenziali di guardrail che separano i successi dalle sconfitte nei progetti di IA.

Read More »

Draghi chiede una pausa per valutare i rischi dell’AI Act

L’ex primo ministro italiano Mario Draghi ha chiesto di sospendere le normative sull’IA per valutare i potenziali “svantaggi” durante una conferenza. Ha affermato che le regole devono supportare l’innovazione e lo sviluppo, in particolare per i sistemi di IA ad alto rischio, e che l’implementazione dovrebbe essere interrotta fino a una migliore comprensione delle problematiche.

Read More »

Rischi legali e sfide reputazionali nell’AI generativa

L’industria dell’IA generativa, un tempo considerata un faro di innovazione, ora affronta un’ondata di scrutinio normativo e crisi reputazionali. Per gli investitori, le aziende come Meta, Microsoft e Google devono navigare in un panorama legale in rapida evoluzione, bilanciando obblighi etici e profittabilità.

Read More »

Consultazioni UE sul Codice di Pratica per la Trasparenza nell’IA

L’UE sta lavorando per creare linee guida e un Codice di Pratica che definisce gli obblighi di trasparenza per alcuni tipi di sistemi di intelligenza artificiale, inclusi i sistemi di categorizzazione biometrica e di riconoscimento delle emozioni. La consultazione è aperta fino al 2 ottobre e raccoglierà contributi da fornitori e utilizzatori di sistemi di intelligenza artificiale.

Read More »

Sorveglianza Intelligente: L’Integrazione di AI e Supervisione Umana

Le squadre di conformità nel settore finanziario stanno affrontando volumi schiaccianti di comunicazioni, con la necessità di integrare l’intelligenza artificiale con la supervisione umana per soddisfare le aspettative normative. Questo approccio ibrido permette di sfruttare le capacità dell’IA nell’aggregazione e nel riconoscimento dei modelli, mantenendo il giudizio contestuale dei professionisti della conformità.

Read More »

Obblighi dei modelli GPAI: Il codice finale di prassi in vigore

Il 10 luglio 2025, l’Ufficio dell’IA europeo ha pubblicato la versione finale del Codice di Pratica per i fornitori di modelli di Intelligenza Artificiale di Uso Generale (GPAI) ai sensi della Legge sull’Intelligenza Artificiale dell’UE. Il Codice copre trasparenza, conformità al copyright e gestione dei rischi sistemici.

Read More »