Governanza dell’IA nell’assistenza agli anziani

Governance dell’AI nell’assistenza agli anziani

Negli ultimi cinque anni, l’assistenza agli anziani ha visto un aumento significativo del numero di individui che richiedono supporto. Secondo le previsioni dell’Organizzazione Mondiale della Sanità, il numero di persone con più di 60 anni raggiungerà 1,4 miliardi entro il 2030 e 2,1 miliardi entro il 2050. Inoltre, il numero di persone con più di 80 anni è previsto triplicare tra il 2020 e il 2050.

I progressi nei settori della sanità e della farmaceutica stanno facendo sì che le persone vivano più a lungo. Le strutture di assistenza agli anziani segnalano che questa crescita porterà a un aumento della domanda di caregiver, strutture di diagnosi medica e servizi di assistenza. Si prevede che ci sarà un’alta discrepanza tra offerta e domanda nei prossimi cinque-dieci anni, spingendo le organizzazioni a cercare modi per colmare questo divario.

Implementazione dell’AI nell’assistenza agli anziani

Un Chief Information Officer (CIO) di una struttura di assistenza ha acquisito un sistema di gestione dell’intelligenza artificiale (AI) per fornire agenti AI formati dal personale, in grado di fungere da caregiver intelligenti. Questi agenti avrebbero potuto consigliare gli anziani, registrare i farmaci assunti e fungere da compagni sociali, oltre ad aiutare nella programmazione automatica del personale.

Il CIO ha cercato consulenze per garantire un uso sicuro e responsabile dell’AI, preoccupato di evitare impatti negativi dall’implementazione. A differenza dell’Unione Europea, dove l’AI Act regola l’uso dei sistemi di gestione dell’AI, l’Australia non ha attualmente leggi vincolanti in materia.

Selezione di un framework di governance dell’AI

Il settore dell’assistenza agli anziani in Australia rientra generalmente nella categoria delle piccole e medie imprese, solitamente servendo 1.000-2.000 residenti con un personale di 200-800 unità. I budget sono solitamente limitati, rendendo cruciale la scelta di un framework di governance dell’AI che miri a migliorare la sicurezza del sistema di gestione dell’AI.

Sebbene il governo australiano non abbia ancora approvato un framework legato all’AI, i Principi Etici dell’AI rappresentano un insieme di otto principi progettati per garantire che l’AI sia sicura e affidabile. Tuttavia, questi non sono sufficientemente dettagliati per essere utilizzati in una valutazione.

Il National Institute of Standards and Technology degli Stati Uniti ha sviluppato un framework di gestione del rischio dell’AI che enfatizza l’identificazione, la valutazione e la mitigazione dei rischi specifici dell’AI nel ciclo di vita dell’AI. Tuttavia, si cercava un framework di governance che andasse oltre la gestione del rischio.

Un framework completo per stabilire, implementare e migliorare continuamente un sistema di gestione dell’AI è rappresentato dall’ISO 42001. Dopo aver consultato altri membri del team, è stata fornita una panoramica dell’approccio al CIO.

Approccio e sfide

L’ISO 42001 consiste in 10 clauses, delle quali le clausole da 4 a 10 e i requisiti associati sono pertinenti per una valutazione. L’assessment è stato condotto in quattro fasi — definire, implementare, mantenere e migliorare — in base alla struttura delle clausole e dei requisiti.

Una delle sfide iniziali è stata la gestione del tempo dell’assessment. Poiché non era stata condotta prima un’analisi di questo tipo e il budget della struttura era limitato, ci si aspettava di fare di più con meno.

Il progetto è stato pianificato per svolgersi in un mese, iniziando con la valutazione dei requisiti della Clausola 4 — Contesto dell’organizzazione, Clausola 5 — Leadership e Clausola 6 — Pianificazione. È stato appurato che il contesto era chiaramente definito e che le esigenze di fornire agenti AI caregiver e un sistema di programmazione automatica erano state adeguatamente stabilite.

Tuttavia, la mancanza di una politica chiara sull’uso del sistema ha rappresentato un grande ostacolo. Non c’erano linee guida riguardo alle valutazioni d’impatto dell’AI, alla governance dei dati e ai piani di miglioramento continuo.

Conclusione

Molte organizzazioni si affrettano a implementare sistemi di gestione dell’AI senza avere adeguate misure di governance in atto. In Australia, non ci sono attualmente leggi che impongano l’uso sicuro e responsabile dell’AI, ma è essenziale che le organizzazioni facciano la loro due diligence e implementino adeguate salvaguardie.

L’assessment della governance dell’AI ha chiaramente identificato le salvaguardie mancanti. L’uso di sistemi AI senza supervisione umana, specialmente nel settore dell’assistenza agli anziani, può avere conseguenze dannose, ma queste possono essere evitate.

Le organizzazioni dovrebbero abbracciare nuove tecnologie con ottimismo cauto e essere diligenti nel garantire che siano in atto le appropriate salvaguardie e governance.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...