Governance dell’AI nell’assistenza agli anziani
Negli ultimi cinque anni, l’assistenza agli anziani ha visto un aumento significativo del numero di individui che richiedono supporto. Secondo le previsioni dell’Organizzazione Mondiale della Sanità, il numero di persone con più di 60 anni raggiungerà 1,4 miliardi entro il 2030 e 2,1 miliardi entro il 2050. Inoltre, il numero di persone con più di 80 anni è previsto triplicare tra il 2020 e il 2050.
I progressi nei settori della sanità e della farmaceutica stanno facendo sì che le persone vivano più a lungo. Le strutture di assistenza agli anziani segnalano che questa crescita porterà a un aumento della domanda di caregiver, strutture di diagnosi medica e servizi di assistenza. Si prevede che ci sarà un’alta discrepanza tra offerta e domanda nei prossimi cinque-dieci anni, spingendo le organizzazioni a cercare modi per colmare questo divario.
Implementazione dell’AI nell’assistenza agli anziani
Un Chief Information Officer (CIO) di una struttura di assistenza ha acquisito un sistema di gestione dell’intelligenza artificiale (AI) per fornire agenti AI formati dal personale, in grado di fungere da caregiver intelligenti. Questi agenti avrebbero potuto consigliare gli anziani, registrare i farmaci assunti e fungere da compagni sociali, oltre ad aiutare nella programmazione automatica del personale.
Il CIO ha cercato consulenze per garantire un uso sicuro e responsabile dell’AI, preoccupato di evitare impatti negativi dall’implementazione. A differenza dell’Unione Europea, dove l’AI Act regola l’uso dei sistemi di gestione dell’AI, l’Australia non ha attualmente leggi vincolanti in materia.
Selezione di un framework di governance dell’AI
Il settore dell’assistenza agli anziani in Australia rientra generalmente nella categoria delle piccole e medie imprese, solitamente servendo 1.000-2.000 residenti con un personale di 200-800 unità. I budget sono solitamente limitati, rendendo cruciale la scelta di un framework di governance dell’AI che miri a migliorare la sicurezza del sistema di gestione dell’AI.
Sebbene il governo australiano non abbia ancora approvato un framework legato all’AI, i Principi Etici dell’AI rappresentano un insieme di otto principi progettati per garantire che l’AI sia sicura e affidabile. Tuttavia, questi non sono sufficientemente dettagliati per essere utilizzati in una valutazione.
Il National Institute of Standards and Technology degli Stati Uniti ha sviluppato un framework di gestione del rischio dell’AI che enfatizza l’identificazione, la valutazione e la mitigazione dei rischi specifici dell’AI nel ciclo di vita dell’AI. Tuttavia, si cercava un framework di governance che andasse oltre la gestione del rischio.
Un framework completo per stabilire, implementare e migliorare continuamente un sistema di gestione dell’AI è rappresentato dall’ISO 42001. Dopo aver consultato altri membri del team, è stata fornita una panoramica dell’approccio al CIO.
Approccio e sfide
L’ISO 42001 consiste in 10 clauses, delle quali le clausole da 4 a 10 e i requisiti associati sono pertinenti per una valutazione. L’assessment è stato condotto in quattro fasi — definire, implementare, mantenere e migliorare — in base alla struttura delle clausole e dei requisiti.
Una delle sfide iniziali è stata la gestione del tempo dell’assessment. Poiché non era stata condotta prima un’analisi di questo tipo e il budget della struttura era limitato, ci si aspettava di fare di più con meno.
Il progetto è stato pianificato per svolgersi in un mese, iniziando con la valutazione dei requisiti della Clausola 4 — Contesto dell’organizzazione, Clausola 5 — Leadership e Clausola 6 — Pianificazione. È stato appurato che il contesto era chiaramente definito e che le esigenze di fornire agenti AI caregiver e un sistema di programmazione automatica erano state adeguatamente stabilite.
Tuttavia, la mancanza di una politica chiara sull’uso del sistema ha rappresentato un grande ostacolo. Non c’erano linee guida riguardo alle valutazioni d’impatto dell’AI, alla governance dei dati e ai piani di miglioramento continuo.
Conclusione
Molte organizzazioni si affrettano a implementare sistemi di gestione dell’AI senza avere adeguate misure di governance in atto. In Australia, non ci sono attualmente leggi che impongano l’uso sicuro e responsabile dell’AI, ma è essenziale che le organizzazioni facciano la loro due diligence e implementino adeguate salvaguardie.
L’assessment della governance dell’AI ha chiaramente identificato le salvaguardie mancanti. L’uso di sistemi AI senza supervisione umana, specialmente nel settore dell’assistenza agli anziani, può avere conseguenze dannose, ma queste possono essere evitate.
Le organizzazioni dovrebbero abbracciare nuove tecnologie con ottimismo cauto e essere diligenti nel garantire che siano in atto le appropriate salvaguardie e governance.