Categoria: Regolamentazione dell’IA

Opportunità per l’Europa nell’era dell’AI senza regole

L’inversione dell’ordine esecutivo sulla sicurezza dell’IA da parte di Trump ha creato opportunità significative per l’Europa, poiché i fornitori di IA statunitensi non dovranno più conformarsi agli standard europei. Questo scenario pone le aziende in settori altamente regolamentati di fronte a rischi diretti e costi opportunità legati all’adozione più ampia dell’IA.

Read More »

Sicurezza dell’IA: un approccio globale necessario

L’impatto dell’intelligenza artificiale (AI) trascende i confini nazionali, rendendo la governance condivisa un quadro essenziale per gestire i suoi rischi e opportunità. La governance condivisa coinvolge processi decisionali collaborativi che riuniscono più parti interessate, inclusi governi, settore privato, accademia e società civile.

Read More »

Conformità all’Atto sull’IA dell’UE: Strategia e Standard

L’adozione delle tecnologie AI è aumentata vertiginosamente negli ultimi anni, passando dal 58% delle organizzazioni che utilizzano AI nel 2019 al 72% nel 2024. Il Regolamento dell’Unione Europea sull’intelligenza artificiale stabilisce un quadro normativo chiaro per garantire che l’AI venga sviluppata e utilizzata in modo responsabile e sicuro.

Read More »

Prevedere i Rischi dell’IA sotto la Legge Europea: Cosa Potrebbe Essere Vietato o Regolato?

Quando si determinano i livelli di rischio, il Regolamento sull’IA dell’UE considera i potenziali danni che i sistemi di IA potrebbero causare agli individui, alla società o ai diritti fondamentali. Le tecnologie di IA che manipolano il comportamento umano o prendono decisioni che cambiano la vita con poca supervisione sono più propense a essere classificate come rischio inaccettabile e vietate.

Read More »

Guardrail per l’AI: Conformità e Responsabilità in Europa

Dynamo AI ha lanciato nuovi guardrail per la governance dell’IA all’interno del prodotto DynamoGuard, progettati per aiutare le organizzazioni a conformarsi all’Atto sull’Intelligenza Artificiale dell’Unione Europea. Questi guardrail offrono controlli per i sistemi di IA basati su testo, vietando pratiche considerate ad alto rischio.

Read More »

Requisiti iniziali della legge sull’IA entrano in vigore

Ieri (2 febbraio) sono entrati in vigore i primi requisiti della legge sull’IA dell’Unione Europea, che vietano l’uso di sistemi di IA che coinvolgono “pratiche di IA vietate”. Le aziende stanno progettando e implementando le proprie strategie e piani di conformità in assenza di linee guida dalla Commissione Europea.

Read More »

Implicazioni della legge AI del Colorado per i fornitori di assistenza sanitaria

L’intelligenza artificiale (AI) sta diventando sempre più parte delle operazioni sanitarie, dalle funzioni amministrative come la programmazione e la fatturazione, alle decisioni cliniche, incluse diagnosi e raccomandazioni terapeutiche. La legge sull’Intelligenza Artificiale del Colorado, che entrerà in vigore il 1° febbraio 2026, impone requisiti di governance e divulgazione per le entità che utilizzano sistemi AI ad alto rischio, in particolare quelli che influenzano decisioni importanti relative ai servizi sanitari.

Read More »

Regole etiche per l’IA: l’Atto UE 2025

Il Regolamento sull’IA dell’UE del 2025 offre un quadro completo per la regolamentazione dei sistemi di intelligenza artificiale, concentrandosi su sicurezza, trasparenza e standard etici. Questo approccio mira a creare un ambiente sicuro e responsabile per lo sviluppo dell’IA, promuovendo pratiche etiche e innovative.

Read More »