Giorno: Febbraio 13, 2025

Sicurezza dell’IA: un approccio globale necessario

L’impatto dell’intelligenza artificiale (AI) trascende i confini nazionali, rendendo la governance condivisa un quadro essenziale per gestire i suoi rischi e opportunità. La governance condivisa coinvolge processi decisionali collaborativi che riuniscono più parti interessate, inclusi governi, settore privato, accademia e società civile.

Read More »

Obiettivi divergenti: il summit sull’IA di Parigi

I leader globali si sono riuniti a Parigi per il Summit sull’Intelligenza Artificiale, dove gli Stati Uniti e l’Unione Europea hanno delineato visioni divergenti per la tecnologia emergente. Il vicepresidente statunitense JD Vance ha sostenuto che gli Stati Uniti devono mantenere la loro posizione di leader nell’IA, mentre la presidente della Commissione europea Ursula von der Leyen ha presentato l’approccio distintivo dell’Europa.

Read More »

Conformità all’Atto sull’IA dell’UE: Strategia e Standard

L’adozione delle tecnologie AI è aumentata vertiginosamente negli ultimi anni, passando dal 58% delle organizzazioni che utilizzano AI nel 2019 al 72% nel 2024. Il Regolamento dell’Unione Europea sull’intelligenza artificiale stabilisce un quadro normativo chiaro per garantire che l’AI venga sviluppata e utilizzata in modo responsabile e sicuro.

Read More »

Prevedere i Rischi dell’IA sotto la Legge Europea: Cosa Potrebbe Essere Vietato o Regolato?

Quando si determinano i livelli di rischio, il Regolamento sull’IA dell’UE considera i potenziali danni che i sistemi di IA potrebbero causare agli individui, alla società o ai diritti fondamentali. Le tecnologie di IA che manipolano il comportamento umano o prendono decisioni che cambiano la vita con poca supervisione sono più propense a essere classificate come rischio inaccettabile e vietate.

Read More »

Guardrail per l’AI: Conformità e Responsabilità in Europa

Dynamo AI ha lanciato nuovi guardrail per la governance dell’IA all’interno del prodotto DynamoGuard, progettati per aiutare le organizzazioni a conformarsi all’Atto sull’Intelligenza Artificiale dell’Unione Europea. Questi guardrail offrono controlli per i sistemi di IA basati su testo, vietando pratiche considerate ad alto rischio.

Read More »

Requisiti iniziali della legge sull’IA entrano in vigore

Ieri (2 febbraio) sono entrati in vigore i primi requisiti della legge sull’IA dell’Unione Europea, che vietano l’uso di sistemi di IA che coinvolgono “pratiche di IA vietate”. Le aziende stanno progettando e implementando le proprie strategie e piani di conformità in assenza di linee guida dalla Commissione Europea.

Read More »

Implicazioni della legge AI del Colorado per i fornitori di assistenza sanitaria

L’intelligenza artificiale (AI) sta diventando sempre più parte delle operazioni sanitarie, dalle funzioni amministrative come la programmazione e la fatturazione, alle decisioni cliniche, incluse diagnosi e raccomandazioni terapeutiche. La legge sull’Intelligenza Artificiale del Colorado, che entrerà in vigore il 1° febbraio 2026, impone requisiti di governance e divulgazione per le entità che utilizzano sistemi AI ad alto rischio, in particolare quelli che influenzano decisioni importanti relative ai servizi sanitari.

Read More »

Regole etiche per l’IA: l’Atto UE 2025

Il Regolamento sull’IA dell’UE del 2025 offre un quadro completo per la regolamentazione dei sistemi di intelligenza artificiale, concentrandosi su sicurezza, trasparenza e standard etici. Questo approccio mira a creare un ambiente sicuro e responsabile per lo sviluppo dell’IA, promuovendo pratiche etiche e innovative.

Read More »