Preoccupazioni per ChatGPT Health: l’AI e i rischi per la salute in Australia

‘Non regolamentato’: il lancio di ChatGPT Health in Australia suscita preoccupazioni tra gli esperti

Un uomo di 60 anni, senza storia di malattie mentali, si è presentato al pronto soccorso insistendo che il suo vicino lo stava avvelenando. Nelle successive 24 ore ha avuto allucinazioni sempre più gravi e ha tentato di fuggire dall’ospedale.

I medici hanno infine scoperto che l’uomo seguiva una dieta quotidiana a base di bromuro di sodio, un sale inorganico utilizzato principalmente per scopi industriali e di laboratorio, come la pulizia e il trattamento dell’acqua. Lo aveva acquistato online dopo che un’intelligenza artificiale gli aveva detto che poteva usarlo al posto del sale da tavola, preoccupato per gli effetti sulla salute del sale nella sua dieta. Il bromuro di sodio può accumularsi nel corpo causando una condizione nota come bromism, con sintomi che includono allucinazioni, stato di stupore e coordinazione compromessa.

Preoccupazioni sul lancio di ChatGPT Health

Incidenti come questo preoccupano esperti del settore riguardo al lancio di ChatGPT Health in Australia, una piattaforma di intelligenza artificiale che permette agli utenti di connettere in modo sicuro i propri registri medici e le app per il benessere, generando risposte più rilevanti e utili. Gli utenti in Australia possono già accedere a un numero limitato di funzionalità della piattaforma.

ChatGPT Health è presentato come un’interfaccia che può aiutare le persone a comprendere le informazioni sanitarie e i risultati dei test o ricevere consigli dietetici, senza sostituire un medico. Tuttavia, la sfida è che per molti utenti non è chiaro dove finisca l’informazione generale e inizi il consiglio medico, specialmente quando le risposte suonano sicure e personalizzate, anche se fuorvianti.

Regolamentazione e sicurezza

ChatGPT Health non è regolamentato come un dispositivo medico o uno strumento diagnostico. Questo significa che non ci sono controlli di sicurezza obbligatori, segnalazione dei rischi, sorveglianza post-market e nessun obbligo di pubblicare dati di test.

Un portavoce della società sviluppatrice ha dichiarato che sono stati coinvolti oltre 200 medici da 60 paesi per migliorare i modelli che alimentano ChatGPT Health, che offre anche forti protezioni di privacy per i dati degli utenti.

Implicazioni per gli utenti

Il CEO di un’organizzazione per la salute dei consumatori ha sottolineato che i crescenti costi medici e i lunghi tempi di attesa stanno spingendo le persone verso l’uso dell’intelligenza artificiale. Sebbene ChatGPT Health possa essere utile nella gestione di condizioni croniche e nella ricerca di modi per mantenersi in salute, c’è preoccupazione che gli utenti possano prendere per buona l’assistenza fornita senza un’adeguata verifica.

Si avverte che le grandi aziende tecnologiche stanno avanzando più rapidamente dei governi, stabilendo le proprie regole sulla privacy, trasparenza e raccolta dei dati. Questo non riguarda l’interruzione dell’IA, ma l’azione preventiva per evitare che errori, pregiudizi e disinformazione vengano replicati in modo rapido e su larga scala.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...