Categoria: Regolamento dell’IA

Nuove Regole per l’Intelligenza Artificiale in Texas

Il Texas ha recentemente approvato la Responsible Artificial Intelligence Governance Act (TRAIGA), che entrerà in vigore il 1° gennaio 2026. Questa legge impone nuovi requisiti per le aziende e le entità governative che utilizzano sistemi di intelligenza artificiale in vari contesti, inclusi biometria e sanità.

Read More »

Ispezione dei Risultati dell’AI per un’Adozione Sicura

L’adozione di strumenti di intelligenza artificiale generativa, come Zoom AI Companion e Microsoft Copilot, richiede non solo l’implementazione di guardrail robusti, ma anche un’ispezione accurata dei contenuti generati. Questo processo consente alle organizzazioni di garantire che le uscite dell’IA soddisfino le normative interne e i requisiti di conformità.

Read More »

Strategie di Sicurezza per l’Intelligenza Artificiale

Pillar Security ha codificato un framework di sicurezza AI che rappresenta un passo avanti significativo negli sforzi dell’industria per garantire operazioni sicure per l’AI. Il framework SAIL delinea il ciclo di vita dello sviluppo dell’AI e oltre 70 rischi, fornendo risorse complete per leader aziendali e IT.

Read More »

Jailbreak dell’IA: Rischi e vulnerabilità nei modelli aziendali

I modelli di intelligenza artificiale stanno diventando sempre più intelligenti e integrati nei flussi di lavoro aziendali, ma con questa crescita emerge una minaccia maggiore: i jailbreak. Questi tentativi mirati di superare le restrizioni integrate nei modelli di linguaggio possono portare a risposte dannose e violazioni della sicurezza.

Read More »

AI Finanziaria: Rischi e Discriminazioni per i Consumatori

Un gruppo di advocacy avverte che l’AI finanziaria discrimina ed esplota i consumatori, evidenziando che le decisioni riguardanti prestiti, assicurazioni e conti bancari vengono delegate a sistemi di AI senza che i consumatori ne siano consapevoli. La mancanza di regolamentazioni adeguate potrebbe compromettere l’equità, la trasparenza e la fiducia pubblica.

Read More »

Allineare l’AI alla conformità normativa

L’intelligenza artificiale (AI) sta trasformando settori, ma porta con sé complesse sfide normative. Le organizzazioni devono bilanciare l’innovazione con l’adesione a leggi rigorose che variano in base alle giurisdizioni.

Read More »

Regolamentazione dell’IA: Cosa Aspettarsi Dopo il Moratorium

Il progetto di legge di riconciliazione del presidente Donald Trump ha rimosso una proposta di moratoria sulla regolamentazione dell’IA a livello statale e locale negli Stati Uniti. La rimozione della moratoria offre importanti spunti su come potrebbe evolvere la legislazione sull’IA in futuro.

Read More »

Pronti per la nuova legislazione sull’IA nell’UE?

L’Atto sull’Intelligenza Artificiale dell’Unione Europea fornisce chiarezza su come sarà regolata l’IA, affrontando le preoccupazioni persistenti riguardo alla sua adozione. Con requisiti più rigorosi per i sistemi di IA ad alto rischio, l’atto mira a aumentare la fiducia degli utenti e a creare migliori condizioni per l’innovazione.

Read More »

L’Atto AI dell’UE: Cosa Devi Sapere

L’Atto sull’IA dell’UE divide l’intelligenza artificiale in tre categorie di rischio: “inaccettabile”, “alto” e “basso/minimale”. Le autorità pubbliche non possono utilizzare sistemi di IA per valutare o classificare l’affidabilità delle persone naturali, e l’uso di sistemi di IA ad alto rischio è soggetto a requisiti più rigorosi.

Read More »