Governanza dell’IA nell’assistenza agli anziani

Governance dell’AI nell’assistenza agli anziani

Negli ultimi cinque anni, l’assistenza agli anziani ha visto un aumento significativo del numero di individui che richiedono supporto. Secondo le previsioni dell’Organizzazione Mondiale della Sanità, il numero di persone con più di 60 anni raggiungerà 1,4 miliardi entro il 2030 e 2,1 miliardi entro il 2050. Inoltre, il numero di persone con più di 80 anni è previsto triplicare tra il 2020 e il 2050.

I progressi nei settori della sanità e della farmaceutica stanno facendo sì che le persone vivano più a lungo. Le strutture di assistenza agli anziani segnalano che questa crescita porterà a un aumento della domanda di caregiver, strutture di diagnosi medica e servizi di assistenza. Si prevede che ci sarà un’alta discrepanza tra offerta e domanda nei prossimi cinque-dieci anni, spingendo le organizzazioni a cercare modi per colmare questo divario.

Implementazione dell’AI nell’assistenza agli anziani

Un Chief Information Officer (CIO) di una struttura di assistenza ha acquisito un sistema di gestione dell’intelligenza artificiale (AI) per fornire agenti AI formati dal personale, in grado di fungere da caregiver intelligenti. Questi agenti avrebbero potuto consigliare gli anziani, registrare i farmaci assunti e fungere da compagni sociali, oltre ad aiutare nella programmazione automatica del personale.

Il CIO ha cercato consulenze per garantire un uso sicuro e responsabile dell’AI, preoccupato di evitare impatti negativi dall’implementazione. A differenza dell’Unione Europea, dove l’AI Act regola l’uso dei sistemi di gestione dell’AI, l’Australia non ha attualmente leggi vincolanti in materia.

Selezione di un framework di governance dell’AI

Il settore dell’assistenza agli anziani in Australia rientra generalmente nella categoria delle piccole e medie imprese, solitamente servendo 1.000-2.000 residenti con un personale di 200-800 unità. I budget sono solitamente limitati, rendendo cruciale la scelta di un framework di governance dell’AI che miri a migliorare la sicurezza del sistema di gestione dell’AI.

Sebbene il governo australiano non abbia ancora approvato un framework legato all’AI, i Principi Etici dell’AI rappresentano un insieme di otto principi progettati per garantire che l’AI sia sicura e affidabile. Tuttavia, questi non sono sufficientemente dettagliati per essere utilizzati in una valutazione.

Il National Institute of Standards and Technology degli Stati Uniti ha sviluppato un framework di gestione del rischio dell’AI che enfatizza l’identificazione, la valutazione e la mitigazione dei rischi specifici dell’AI nel ciclo di vita dell’AI. Tuttavia, si cercava un framework di governance che andasse oltre la gestione del rischio.

Un framework completo per stabilire, implementare e migliorare continuamente un sistema di gestione dell’AI è rappresentato dall’ISO 42001. Dopo aver consultato altri membri del team, è stata fornita una panoramica dell’approccio al CIO.

Approccio e sfide

L’ISO 42001 consiste in 10 clauses, delle quali le clausole da 4 a 10 e i requisiti associati sono pertinenti per una valutazione. L’assessment è stato condotto in quattro fasi — definire, implementare, mantenere e migliorare — in base alla struttura delle clausole e dei requisiti.

Una delle sfide iniziali è stata la gestione del tempo dell’assessment. Poiché non era stata condotta prima un’analisi di questo tipo e il budget della struttura era limitato, ci si aspettava di fare di più con meno.

Il progetto è stato pianificato per svolgersi in un mese, iniziando con la valutazione dei requisiti della Clausola 4 — Contesto dell’organizzazione, Clausola 5 — Leadership e Clausola 6 — Pianificazione. È stato appurato che il contesto era chiaramente definito e che le esigenze di fornire agenti AI caregiver e un sistema di programmazione automatica erano state adeguatamente stabilite.

Tuttavia, la mancanza di una politica chiara sull’uso del sistema ha rappresentato un grande ostacolo. Non c’erano linee guida riguardo alle valutazioni d’impatto dell’AI, alla governance dei dati e ai piani di miglioramento continuo.

Conclusione

Molte organizzazioni si affrettano a implementare sistemi di gestione dell’AI senza avere adeguate misure di governance in atto. In Australia, non ci sono attualmente leggi che impongano l’uso sicuro e responsabile dell’AI, ma è essenziale che le organizzazioni facciano la loro due diligence e implementino adeguate salvaguardie.

L’assessment della governance dell’AI ha chiaramente identificato le salvaguardie mancanti. L’uso di sistemi AI senza supervisione umana, specialmente nel settore dell’assistenza agli anziani, può avere conseguenze dannose, ma queste possono essere evitate.

Le organizzazioni dovrebbero abbracciare nuove tecnologie con ottimismo cauto e essere diligenti nel garantire che siano in atto le appropriate salvaguardie e governance.

More Insights

Politica AI del Quebec per Università e Cégeps

Il governo del Quebec ha recentemente rilasciato una politica sull'intelligenza artificiale per le università e i CÉGEP, quasi tre anni dopo il lancio di ChatGPT. Le linee guida includono principi...

L’alfabetizzazione AI: la nuova sfida per la conformità aziendale

L'adozione dell'IA nelle aziende sta accelerando, ma con essa emerge la sfida dell'alfabetizzazione all'IA. La legislazione dell'UE richiede che tutti i dipendenti comprendano gli strumenti che...

Legge sull’IA: Germania avvia consultazioni per l’attuazione

I regolatori esistenti assumeranno la responsabilità di monitorare la conformità delle aziende tedesche con l'AI Act dell'UE, con un ruolo potenziato per l'Agenzia Federale di Rete (BNetzA). Il...

Governare l’AI nell’Economia Zero Trust

Nel 2025, l'intelligenza artificiale non è più solo un concetto astratto, ma è diventata una realtà operativa che richiede un governance rigorosa. In un'economia a zero fiducia, le organizzazioni...

Il nuovo segretariato tecnico per l’IA: un cambiamento nella governance

Il prossimo quadro di governance sull'intelligenza artificiale potrebbe prevedere un "segreteria tecnica" per coordinare le politiche sull'IA tra i vari dipartimenti governativi. Questo rappresenta un...

Innovazione sostenibile attraverso la sicurezza dell’IA nei Paesi in via di sviluppo

Un crescente tensione si è sviluppata tra i sostenitori della regolamentazione dei rischi legati all'IA e coloro che desiderano liberare l'IA per l'innovazione. Gli investimenti in sicurezza e...

Verso un approccio armonioso alla governance dell’IA in ASEAN

Quando si tratta di intelligenza artificiale, l'ASEAN adotta un approccio consensuale. Mentre i membri seguono percorsi diversi nella governance dell'IA, è fondamentale che questi principi volontari...

Italia guida l’UE con una legge innovativa sull’IA

L'Italia è diventata il primo paese nell'UE ad approvare una legge completa che regola l'uso dell'intelligenza artificiale, imponendo pene detentive a chi utilizza la tecnologia per causare danni. La...

Regolamentare l’Intelligenza Artificiale in Ucraina: Verso un Futuro Etico

Nel giugno del 2024, quattordici aziende IT ucraine hanno creato un'organizzazione di autoregolamentazione per sostenere approcci etici nell'implementazione dell'intelligenza artificiale in Ucraina...