Laboratori AI autonomi: promesse di cure per malattie ma anche rischi letali
All’inizio del 2020, mentre le città di tutto il mondo iniziavano a chiudere in risposta al covid, alcuni ricercatori riuscivano ancora a portare avanti i loro esperimenti. Anche se, come tutti, erano stati proibiti dall’entrare nei loro laboratori, potevano accedere a “laboratori cloud” e inviare le loro prove da remoto, lasciando che bracci robotici e strumenti automatizzati eseguissero le loro istruzioni a distanza.
Quello che era un comodo vantaggio nel mezzo di una crisi è ora una realtà diffusa, poiché software, robotica e intelligenza artificiale (AI) si sono uniti per portare il concetto di “lavoro da casa” alla sperimentazione scientifica. In tutto il mondo, i laboratori cloud commerciali hanno già iniziato a invertire i flussi di lavoro scientifici tradizionali, al punto che, invece di ricercatori che si spostano tra i loro strumenti, i campioni viaggiano attraverso percorsi robotici.
Laboratori autonomi
I laboratori autonomi portano questo concetto un passo oltre. Incorporando l’AI direttamente in questi laboratori autonomi, possono andare oltre l’esecuzione di istruzioni per generarle attivamente. Questi sistemi automatizzati intelligenti non solo sono in grado di identificare nuovi esperimenti e portarli a termine utilizzando un’infrastruttura robotica, ma anche di analizzare i risultati e, sulla base dei feedback, decidere cosa fare successivamente. In questo processo, il lungo ciclo di sperimentazione può essere compresso in un ciclo di feedback continuo.
Le conseguenze immediate di tutto ciò saranno un’accelerazione drammatica dei tempi di progresso scientifico. Quando un anno di ricerca umana può essere compresso in settimane o addirittura giorni, migliaia di varianti sperimentali possono essere esplorate in parallelo. In un tale mondo, il fallimento è economico e la scoperta attraverso un’iterazione incessante non solo è possibile, ma inevitabile.
Rischi e implicazioni
Tuttavia, come abbiamo imparato ripetutamente, qualsiasi tentativo di ridurre l’attrito porta spesso a conseguenze indesiderate. Accelerando il ritmo con cui la ricerca scientifica può essere condotta, ci stiamo esponendo involontariamente a danni che finora non avevamo motivo di temere.
Qualsiasi sistema AI che aiuta a identificare la cura per una malattia può essere utilizzato altrettanto facilmente per identificare agenti chimici e biologici che possono farci ammalare. Un algoritmo di apprendimento automatico sviluppato per identificare composti mai visti prima, con una alta probabilità di curare malattie, ha generato un elenco di sostanze letali, più potenti degli agenti chimici tossici più noti e praticamente non rintracciabili.
Questo è un rischio concreto. La maggior parte dei sistemi biologici AI è poco regolamentata. Molti sono open-source e pochi incorporano salvaguardie significative. I laboratori cloud esistenti operano in una zona grigia normativa, anche se possono eseguire esperimenti altamente potenti.
Conclusioni
I laboratori cloud autonomi offrono percorsi senza precedenti per la sperimentazione clinica. Nelle mani giuste, ciò potrebbe migliorare la nostra capacità di sviluppare trattamenti salvavita e consentire trattamenti personalizzati su larga scala. Se vogliamo raggiungere questo equilibrio delicato, è urgente aggiornare i nostri trattati e modificare le nostre leggi.
È fondamentale che, mentre costruiamo sistemi di laboratorio automatizzati, la responsabilità venga incorporata fin dall’inizio. Gli esperimenti ideati, implementati e perfezionati da agenti AI devono essere identificabili, auditabili e tracciabili ai decisori umani. Con avanzamenti rapidi nell’AI, è cruciale mantenere il controllo su questi sviluppi per evitare conseguenze catastrofiche.