Los laboratorios autónomos de IA prometen curas para enfermedades, pero también podrían generar sustancias letales
A principios de 2020, mientras las ciudades de todo el mundo comenzaban a cerrar en respuesta al covid, algunos investigadores continuaron con sus experimentos. Aunque, al igual que todos los demás, se les había prohibido entrar en sus laboratorios, pudieron iniciar sesión en ‘laboratorios en la nube’ y enviar sus ensayos de forma remota, dejando que brazos robóticos e instrumentos automatizados ejecutaran sus instrucciones a distancia.
Lo que era una conveniencia encantadora en medio de una crisis es ahora una realidad generalizada, ya que el software, la robótica y la inteligencia artificial (IA) se han unido para llevar el concepto de ‘trabajo desde casa’ a la experimentación científica. En todo el mundo, los laboratorios comerciales en la nube han comenzado a invertir los flujos de trabajo científicos tradicionales hasta el punto en que, en lugar de que los investigadores se desplacen entre sus instrumentos, las muestras viajan a través de caminos robóticos.
Laboratorios autónomos
Los laboratorios autogestionados llevan esto un paso más allá. Al incorporar IA directamente en estos laboratorios autónomos, pueden ir más allá de simplemente ejecutar instrucciones para generar activamente las mismas. Estos sistemas automatizados inteligentes no solo pueden identificar nuevos experimentos y llevarlos a cabo utilizando infraestructura robótica, sino también analizar sus resultados y, en función de la retroalimentación, decidir qué se debe hacer a continuación. En el proceso, el largo ciclo de experimentación puede convertirse en un bucle de retroalimentación continuo.
La consecuencia inmediata de todo esto será una aceleración dramática de los plazos del progreso científico. Cuando un año de investigación humana puede comprimirse en semanas o incluso días, miles de variantes experimentales pueden explorarse en paralelo. En tal mundo, el fracaso es barato y el descubrimiento a través de iteraciones implacables no solo es posible, sino inevitable.
En campos como la formulación de medicamentos, la ingeniería de proteínas y la ciencia de materiales, estas capacidades pueden transformar radicalmente la economía del trabajo científico.
Riesgos potenciales
Sin embargo, como hemos aprendido repetidamente, cualquier intento de reducir la fricción a menudo conlleva consecuencias no deseadas. Al acelerar el ritmo de la investigación científica, ¿nos estamos exponiendo inadvertidamente a peligros que hasta ahora no hemos tenido razones para preocuparnos?
Cualquier sistema de IA que ayude a identificar la cura para una enfermedad también puede utilizarse para identificar agentes químicos y biológicos que pueden enfermarnos. Un algoritmo de aprendizaje automático desarrollado para identificar compuestos nunca antes vistos con alta probabilidad de curar enfermedades terminó generando una lista de sustancias letales inimaginables que no solo eran más potentes que los agentes químicos más tóxicos conocidos, sino también efectivamente inrastreadas, ya que muchas de ellas aún no habían sido descubiertas.
Tan aterrador como suena, todo lo que hace este sistema es identificar sustancias potencialmente tóxicas. Para utilizar este conocimiento y construir sustancias biológicas dañinas, alguien tendría que tomar esas fórmulas teóricas y sintetizarlas en productos reales. Esto no solo requiere acceso a un laboratorio completamente equipado, sino también personal que tenga la experiencia necesaria para usarlo y la ambivalencia moral para hacerlo sin considerar las consecuencias. A medida que los laboratorios autónomos se convierten en una realidad, esta barrera pronto se desmoronará.
Regulaciones insuficientes
Este no es un riesgo hipotético. La mayoría de los sistemas biológicos de IA están poco regulados. Muchos son de código abierto. Pocos incorporan salvaguardas significativas. Los laboratorios en la nube que existen hoy operan en una zona gris regulatoria, a pesar de que pueden realizar experimentos altamente potentes. Los marcos legales, como la Convención sobre Armas Biológicas, que fueron diseñados para un mundo en el que las instalaciones físicas y la investigación controlada por humanos eran los únicos medios para crear sustancias biológicas, tendrán dificultades para adaptarse a esta nueva realidad de IA.
Dicho esto, los laboratorios en la nube autogestionados nos ofrecen caminos sin precedentes para la experimentación clínica. En las manos adecuadas, esto podría mejorar nuestra capacidad para desarrollar tratamientos que salvan vidas y permitir tratamientos personalizados a gran escala. A pesar de los posibles daños, hay muchas razones para intentar encontrar una manera de hacer que esto funcione de manera segura.
Conclusiones
Si queremos lograr este delicado equilibrio, necesitamos actualizar urgentemente nuestros tratados y enmendar nuestras leyes. Pero no podemos detenernos ahí. A medida que construimos sistemas de laboratorio automatizados, la responsabilidad debe ser incorporada desde el principio. Los experimentos ideados, implementados y refinados por agentes de IA deben ser identificables, auditables y rastreables hasta tomadores de decisiones humanos.
Los laboratorios en la nube han permitido la ciencia remota al hacer que la investigación sea resiliente a las interrupciones físicas. Al hacerlo, también han eliminado muchas de las fricciones que, sin saberlo, nos mantenían a salvo. Los avances rápidos en IA no solo han acelerado este proceso, sino que también han permitido una expansión masiva de las capacidades científicas.
Generalmente, hay una pequeña ventana entre el nacimiento de una nueva tecnología y el reconocimiento de la sociedad de los daños que puede causar. Este es el periodo en el que puede operar sin regulación y ser utilizado sin permiso de las autoridades. Con la IA evolucionando rápidamente, esa ventana importa mucho más de lo que muchos de nosotros realizamos. Y en el caso de los laboratorios autogestionados, particularmente, debemos asegurarnos de que se mantenga lo más cerrada posible. Dado los daños que podrían resultar, no solo necesitamos cerrarla rápidamente, sino asegurar que nunca sea lo suficientemente amplia como para permitir resultados catastróficos.