Intelligenza artificiale: sfide e opportunità in Europa

Commenti del Chief Innovation Officer di Philips sulla navigazione nell’EU AI Act

Philips, leader globale nella tecnologia sanitaria, sottolinea l’importanza di un quadro normativo per i dispositivi medici basati sull’ intelligenza artificiale (AI), che garantisca la sicurezza dei pazienti e favorisca un ecosistema competitivo e fiorente in Europa. L’implementazione dell’EU AI Act non deve comportare costi aggiuntivi di certificazione, ritardi nel lancio dei prodotti, sovra-regolamentazione e obblighi non necessari che potrebbero ostacolare l’adozione e l’innovazione dell’AI in Europa.

Classificazione dei Rischi

L’AI Act, una regolamentazione europea sull’intelligenza artificiale, assegna le applicazioni e i sistemi a quattro categorie di rischio. La normativa è diventata legge la scorsa estate e sarà pienamente applicabile ai sistemi AI ad alto rischio – integrati in prodotti regolamentati – entro agosto 2027, ovvero a qualsiasi dispositivo medico con applicazioni AI.

Secondo un recente numero della Morning Health Care Newsletter di PoliticoPro, molti dispositivi medici AI saranno probabilmente classificati come ad alto rischio, il che significa che dovranno rispettare una serie di severi obblighi di conformità. I dispositivi medici con componenti AI dovranno conformarsi sia al Regolamento sui dispositivi medici (MDR) che all’AI Act. Sarà necessario designare organismi notificati per valutare i prodotti ai sensi dell’AI Act, in modo simile alla loro designazione secondo il MDR. Tuttavia, non tutti gli organismi notificati che valutano i dispositivi medici potrebbero scegliere di essere designati per i dispositivi medici AI.

Preparazione degli Organismi Notificati

Politico evidenzia come gli organismi notificati si stiano preparando a valutare i dispositivi medici AI secondo l’AI Act e come i paesi dovranno designare le autorità competenti nazionali entro agosto 2025, che ispezioneranno e designeranno gli organismi notificati. I produttori, tra cui Philips, sperano di poter richiedere a un organismo notificato di effettuare controlli di conformità sotto entrambe le normative. Sebbene molti requisiti dell’AI Act si sovrappongano al MDR, ci sono requisiti aggiuntivi previsti dall’AI Act europeo.

Preoccupazioni dei Produttori

Le preoccupazioni dei produttori riguardano il fatto che requisiti sovrapposti possano soffocare l’innovazione. Le aziende più piccole e le startup possono trovarsi in difficoltà. Il Chief Innovation Officer di Philips ha commentato: “Le aziende come Philips potrebbero essere posizionate per superare questo ostacolo grazie alla nostra dimensione e scala, ma le giovani aziende, dimenticatele.”

Preparazione per il Cambiamento

Philips si sta preparando per l’entrata in vigore dell’AI Act, formando i propri dipendenti sui requisiti della legge. Tuttavia, questo è un compito erculeo. “C’è ancora speranza che possiamo adattarci e correggere il corso,” ha detto il Chief Innovation Officer. “La nostra posizione come azienda globale con sede in Europa è quella di garantire che la fiducia venga costruita, ma non in modo tale da non poter portare innovazione rapidamente.” È fondamentale che l’innovazione non venga accelerata nei mercati nordamericani rispetto a quelli europei per le aziende europee.

More Insights

Rischi dell’IA: Impatti sulla Conformità Normativa

La rapida crescita dell'intelligenza artificiale (IA), in particolare dell'IA generativa e dei chatbot, offre alle aziende numerose opportunità per migliorare il loro lavoro con i clienti. Tuttavia...

Competenze di intelligenza artificiale: costruire un programma efficace

L'obbligo di alfabetizzazione sull'IA della legge sull'IA dell'UE si applica a chiunque utilizzi sistemi di IA connessi all'UE, richiedendo misure per garantire un livello sufficiente di...

Etica e Intelligenza Artificiale: Sfide e Opportunità

L'intelligenza artificiale (IA) sta trasformando il modo in cui le organizzazioni prendono decisioni critiche, ma solleva preoccupazioni riguardo a potenziali pregiudizi e mancanza di trasparenza. È...

Preparazione della Croazia per la Legge sull’IA: Rischi e Salvaguardie

L'affiliato di EDRi, Politiscope, ha recentemente ospitato un evento in Croazia per discutere l'impatto dei diritti umani dell'intelligenza artificiale (AI) e sensibilizzare sui danni legati all'AI...

Intelligenza Artificiale: Dovrebbe Avere Personalità Giuridica?

L'intelligenza artificiale non è più emergente, ma è consolidata, e le sue capacità stanno evolvendo più rapidamente dei quadri giuridici che dovrebbero regolarla. Dobbiamo affrontare la questione...

Provenienza dei dati: la chiave per la governance dell’IA

L'adozione dell'intelligenza artificiale nelle aziende è avvenuta in modo silenzioso e incrementale, ma ciò che preoccupa è l'assunzione di sicurezza che deriva dall'uso di modelli popolari. La vera...

Equilibrio e Innovazione nella Governance dell’IA nelle Filippine

Un legislatore nelle Filippine chiede un approccio cauto e consultivo alla regolamentazione dell'intelligenza artificiale (IA), sottolineando la necessità di garantire che le politiche promuovano un...

La Cina e il Futuro della Governance dell’AI: Un Modello Open-Source

La Cina sta facendo rapidi progressi nell'intelligenza artificiale (IA), guidata da aziende tecnologiche come Alibaba e Baidu, enfatizzando la collaborazione open-source. Questo approccio non solo...

Governare l’Intelligenza Artificiale: 9 Passi Fondamentali

Le organizzazioni stanno abbracciando il potenziale trasformativo dell'intelligenza artificiale (AI) e una verità diventa sempre più chiara: non è possibile scalare l'AI in modo sicuro senza...