Governanza dell’IA nell’assistenza agli anziani

Governance dell’AI nell’assistenza agli anziani

Negli ultimi cinque anni, l’assistenza agli anziani ha visto un aumento significativo del numero di individui che richiedono supporto. Secondo le previsioni dell’Organizzazione Mondiale della Sanità, il numero di persone con più di 60 anni raggiungerà 1,4 miliardi entro il 2030 e 2,1 miliardi entro il 2050. Inoltre, il numero di persone con più di 80 anni è previsto triplicare tra il 2020 e il 2050.

I progressi nei settori della sanità e della farmaceutica stanno facendo sì che le persone vivano più a lungo. Le strutture di assistenza agli anziani segnalano che questa crescita porterà a un aumento della domanda di caregiver, strutture di diagnosi medica e servizi di assistenza. Si prevede che ci sarà un’alta discrepanza tra offerta e domanda nei prossimi cinque-dieci anni, spingendo le organizzazioni a cercare modi per colmare questo divario.

Implementazione dell’AI nell’assistenza agli anziani

Un Chief Information Officer (CIO) di una struttura di assistenza ha acquisito un sistema di gestione dell’intelligenza artificiale (AI) per fornire agenti AI formati dal personale, in grado di fungere da caregiver intelligenti. Questi agenti avrebbero potuto consigliare gli anziani, registrare i farmaci assunti e fungere da compagni sociali, oltre ad aiutare nella programmazione automatica del personale.

Il CIO ha cercato consulenze per garantire un uso sicuro e responsabile dell’AI, preoccupato di evitare impatti negativi dall’implementazione. A differenza dell’Unione Europea, dove l’AI Act regola l’uso dei sistemi di gestione dell’AI, l’Australia non ha attualmente leggi vincolanti in materia.

Selezione di un framework di governance dell’AI

Il settore dell’assistenza agli anziani in Australia rientra generalmente nella categoria delle piccole e medie imprese, solitamente servendo 1.000-2.000 residenti con un personale di 200-800 unità. I budget sono solitamente limitati, rendendo cruciale la scelta di un framework di governance dell’AI che miri a migliorare la sicurezza del sistema di gestione dell’AI.

Sebbene il governo australiano non abbia ancora approvato un framework legato all’AI, i Principi Etici dell’AI rappresentano un insieme di otto principi progettati per garantire che l’AI sia sicura e affidabile. Tuttavia, questi non sono sufficientemente dettagliati per essere utilizzati in una valutazione.

Il National Institute of Standards and Technology degli Stati Uniti ha sviluppato un framework di gestione del rischio dell’AI che enfatizza l’identificazione, la valutazione e la mitigazione dei rischi specifici dell’AI nel ciclo di vita dell’AI. Tuttavia, si cercava un framework di governance che andasse oltre la gestione del rischio.

Un framework completo per stabilire, implementare e migliorare continuamente un sistema di gestione dell’AI è rappresentato dall’ISO 42001. Dopo aver consultato altri membri del team, è stata fornita una panoramica dell’approccio al CIO.

Approccio e sfide

L’ISO 42001 consiste in 10 clauses, delle quali le clausole da 4 a 10 e i requisiti associati sono pertinenti per una valutazione. L’assessment è stato condotto in quattro fasi — definire, implementare, mantenere e migliorare — in base alla struttura delle clausole e dei requisiti.

Una delle sfide iniziali è stata la gestione del tempo dell’assessment. Poiché non era stata condotta prima un’analisi di questo tipo e il budget della struttura era limitato, ci si aspettava di fare di più con meno.

Il progetto è stato pianificato per svolgersi in un mese, iniziando con la valutazione dei requisiti della Clausola 4 — Contesto dell’organizzazione, Clausola 5 — Leadership e Clausola 6 — Pianificazione. È stato appurato che il contesto era chiaramente definito e che le esigenze di fornire agenti AI caregiver e un sistema di programmazione automatica erano state adeguatamente stabilite.

Tuttavia, la mancanza di una politica chiara sull’uso del sistema ha rappresentato un grande ostacolo. Non c’erano linee guida riguardo alle valutazioni d’impatto dell’AI, alla governance dei dati e ai piani di miglioramento continuo.

Conclusione

Molte organizzazioni si affrettano a implementare sistemi di gestione dell’AI senza avere adeguate misure di governance in atto. In Australia, non ci sono attualmente leggi che impongano l’uso sicuro e responsabile dell’AI, ma è essenziale che le organizzazioni facciano la loro due diligence e implementino adeguate salvaguardie.

L’assessment della governance dell’AI ha chiaramente identificato le salvaguardie mancanti. L’uso di sistemi AI senza supervisione umana, specialmente nel settore dell’assistenza agli anziani, può avere conseguenze dannose, ma queste possono essere evitate.

Le organizzazioni dovrebbero abbracciare nuove tecnologie con ottimismo cauto e essere diligenti nel garantire che siano in atto le appropriate salvaguardie e governance.

More Insights

Governanza dell’IA: Rischi e Opportunità per i Professionisti della Sicurezza

L'intelligenza artificiale (AI) sta avendo un ampio impatto su vari settori, compresa la cybersicurezza, con il 90% delle organizzazioni che adottano o pianificano di adottare l'AI generativa per...

Critiche all’uso della tecnologia di riconoscimento facciale nel Regno Unito

Il governo del Regno Unito è stato criticato per il rapido dispiegamento della tecnologia di riconoscimento facciale senza un adeguato quadro giuridico. L'Istituto Ada Lovelace ha avvertito che l'uso...

Boom delle start-up per la governance dell’IA

Con la crescita dell'IA, le soluzioni di governance sono in enorme domanda. L'industria globale della governance dell'IA, che valeva 890 milioni di dollari lo scorso anno, crescerà fino a 5,8 miliardi...

Moratoria sull’AI: Rischi e Opportunità

Il Congresso degli Stati Uniti ha approvato un pacchetto di bilancio che include un divieto di dieci anni sull'applicazione delle leggi statali sull'IA. Tech Policy Press cerca le opinioni degli...

Il Futuro dell’AI nei Tribunali: Rivelazioni da 500 Casi

La regolamentazione dell'intelligenza artificiale (AI) è disomogenea in tutto il mondo, con alcune giurisdizioni che hanno già regolamenti completi mentre altre esitano o ritardano la...

Affrontare i Rischi dell’IA: Oltre la Strategia Responsabile

L'intelligenza artificiale responsabile si sta trasformando da una parola d'ordine impressionante a una necessità aziendale critica, specialmente mentre le aziende nella regione Asia-Pacifico...

Governare l’AI: Un Imperativo Legale

In un'intervista con Help Net Security, Brooke Johnson, Chief Legal Counsel di Ivanti, esplora le responsabilità legali nella governance dell'IA, sottolineando l'importanza della collaborazione...

Rivoluzione dell’Intelligenza Artificiale: Il Futuro in Gioco

Il Congresso degli Stati Uniti sta considerando un'importante legge che impedirebbe agli stati di regolamentare i modelli di intelligenza artificiale per un periodo di dieci anni. Alcuni legislatori...

Regolamentazione e Innovazione: La Sfida del Settore Finanziario

Le aziende di servizi finanziari si trovano intrappolate tra regolamenti AI in rapida evoluzione che variano notevolmente da giurisdizione a giurisdizione, creando incubi di conformità che possono...