‘Non regolamentato’: il lancio di ChatGPT Health in Australia suscita preoccupazioni tra gli esperti
Un uomo di 60 anni, senza storia di malattie mentali, si è presentato al pronto soccorso insistendo che il suo vicino lo stava avvelenando. Nelle successive 24 ore ha avuto allucinazioni sempre più gravi e ha tentato di fuggire dall’ospedale.
I medici hanno infine scoperto che l’uomo seguiva una dieta quotidiana a base di bromuro di sodio, un sale inorganico utilizzato principalmente per scopi industriali e di laboratorio, come la pulizia e il trattamento dell’acqua. Lo aveva acquistato online dopo che un’intelligenza artificiale gli aveva detto che poteva usarlo al posto del sale da tavola, preoccupato per gli effetti sulla salute del sale nella sua dieta. Il bromuro di sodio può accumularsi nel corpo causando una condizione nota come bromism, con sintomi che includono allucinazioni, stato di stupore e coordinazione compromessa.
Preoccupazioni sul lancio di ChatGPT Health
Incidenti come questo preoccupano esperti del settore riguardo al lancio di ChatGPT Health in Australia, una piattaforma di intelligenza artificiale che permette agli utenti di connettere in modo sicuro i propri registri medici e le app per il benessere, generando risposte più rilevanti e utili. Gli utenti in Australia possono già accedere a un numero limitato di funzionalità della piattaforma.
ChatGPT Health è presentato come un’interfaccia che può aiutare le persone a comprendere le informazioni sanitarie e i risultati dei test o ricevere consigli dietetici, senza sostituire un medico. Tuttavia, la sfida è che per molti utenti non è chiaro dove finisca l’informazione generale e inizi il consiglio medico, specialmente quando le risposte suonano sicure e personalizzate, anche se fuorvianti.
Regolamentazione e sicurezza
ChatGPT Health non è regolamentato come un dispositivo medico o uno strumento diagnostico. Questo significa che non ci sono controlli di sicurezza obbligatori, segnalazione dei rischi, sorveglianza post-market e nessun obbligo di pubblicare dati di test.
Un portavoce della società sviluppatrice ha dichiarato che sono stati coinvolti oltre 200 medici da 60 paesi per migliorare i modelli che alimentano ChatGPT Health, che offre anche forti protezioni di privacy per i dati degli utenti.
Implicazioni per gli utenti
Il CEO di un’organizzazione per la salute dei consumatori ha sottolineato che i crescenti costi medici e i lunghi tempi di attesa stanno spingendo le persone verso l’uso dell’intelligenza artificiale. Sebbene ChatGPT Health possa essere utile nella gestione di condizioni croniche e nella ricerca di modi per mantenersi in salute, c’è preoccupazione che gli utenti possano prendere per buona l’assistenza fornita senza un’adeguata verifica.
Si avverte che le grandi aziende tecnologiche stanno avanzando più rapidamente dei governi, stabilendo le proprie regole sulla privacy, trasparenza e raccolta dei dati. Questo non riguarda l’interruzione dell’IA, ma l’azione preventiva per evitare che errori, pregiudizi e disinformazione vengano replicati in modo rapido e su larga scala.