Les laboratoires autonomes d’IA promettent des remèdes aux maladies, mais pourraient également engendrer des substances létales
Au début de 2020, alors que les villes du monde entier commençaient à se confiner en réponse au COVID-19, quelques chercheurs ont réussi à continuer leurs expériences. Bien qu’ils aient été interdits d’entrer dans leurs laboratoires, ils pouvaient se connecter à des « laboratoires cloud » et soumettre leurs essais à distance, laissant des bras robotiques et des instruments automatisés exécuter leurs instructions.
Ce qui était une commodité pendant une crise est désormais une réalité répandue, alors que les logiciels, la robotique et l’intelligence artificielle (IA) se sont associés pour amener le concept de « travail à domicile » à l’expérimentation scientifique. Dans le monde entier, des laboratoires cloud commerciaux ont déjà commencé à inverser les flux de travail scientifiques traditionnels, au point où, au lieu que les chercheurs se déplacent entre leurs instruments, les échantillons circulent à travers des voies robotiques.
Laboratoires autonomes
Les laboratoires autonomes vont encore plus loin. En intégrant l’IA directement dans ces laboratoires autonomes, ils peuvent aller au-delà de l’exécution d’instructions pour générer activement celles-ci. Ces systèmes automatisés intelligents non seulement identifient de nouvelles expériences et les exécutent à l’aide d’infrastructures robotiques, mais analysent également leurs résultats et, en fonction des retours, décident des actions à entreprendre. Ce processus permet de condenser le long cycle d’expérimentation en une boucle de rétroaction continue.
La conséquence immédiate de tout cela sera une accélération dramatique des délais de progrès scientifique. Lorsqu’une année de recherche humaine peut être compressée en semaines voire en jours, des milliers de variantes expérimentales peuvent être explorées en parallèle. Dans un tel monde, l’échec est peu coûteux et la découverte par itération incessante devient non seulement possible mais inévitable.
Implications et risques
Cependant, comme nous l’avons appris à plusieurs reprises, toute tentative de réduire les frictions entraîne souvent des conséquences inattendues. En accélérant le rythme de la recherche scientifique, nous exposons-nous involontairement à des dangers que nous n’avons pas encore eu de raison de craindre ?
Tout système d’IA qui aide à identifier un remède à une maladie peut tout aussi facilement être utilisé pour identifier des agents chimiques et biologiques pouvant nous rendre malades. Un exemple est un algorithme de machine learning développé pour identifier des composés jamais vus auparavant avec une forte probabilité de guérir des maladies. Dans son processus d’élimination des molécules appropriées ayant des effets secondaires toxiques, le système a fini par générer une liste de substances incroyablement létales, non seulement plus puissantes que les agents chimiques les plus toxiques connus, mais également efficacement introuvables, car beaucoup d’entre elles n’avaient pas encore été découvertes.
Aussi terrifiant que cela puisse paraître, tout ce que fait cet algorithme, c’est identifier des substances potentiellement toxiques. Pour utiliser cette connaissance afin de créer effectivement des substances biologiques nuisibles, quelqu’un devrait prendre ces formules théoriques et les synthétiser en produits réels. Cela nécessite non seulement l’accès à un laboratoire entièrement équipé, mais aussi du personnel ayant l’expertise requise pour l’utiliser, ainsi qu’une ambivalence morale à le faire, quelles que soient les conséquences. À mesure que les laboratoires autonomes deviennent une réalité, cette barrière sera bientôt abattue.
Réglementation et sécurité
Ce risque n’est pas hypothétique. La plupart des systèmes biologiques d’IA sont faiblement réglementés. Beaucoup sont open source. Peu intègrent des mesures de sécurité significatives. Les laboratoires cloud qui existent aujourd’hui opèrent dans une zone grise réglementaire, bien qu’ils puissent réaliser des expériences très puissantes. Les cadres juridiques tels que la Convention sur les armes biologiques, conçus pour un monde où les installations physiques et la recherche contrôlée par l’homme étaient les seuls moyens de créer des substances biologiques, auront du mal à s’adapter à cette nouvelle réalité de l’IA.
Cela dit, les laboratoires cloud autonomes nous offrent des voies sans précédent pour l’expérimentation clinique. Entre de bonnes mains, cela pourrait améliorer notre capacité à développer des traitements salvateurs et permettre un traitement personnalisé à grande échelle. Bien que les dangers potentiels soient sérieux, il existe de nombreuses raisons de tenter de trouver un moyen de faire fonctionner cela en toute sécurité.
Conclusion
Si nous voulons atteindre cet équilibre délicat, nous devons de toute urgence mettre à jour nos traités et modifier nos lois. Mais nous ne pouvons pas nous arrêter là. En construisant des systèmes de laboratoire automatisés, la responsabilité doit être intégrée dès le départ. Les expériences conçues, mises en œuvre et affinées par des agents IA doivent être identifiables, auditées et traçables à des décideurs humains.
Les laboratoires cloud ont permis à la science à distance de résister aux perturbations physiques. Ce faisant, ils ont également supprimé de nombreuses frictions qui, sans que nous le sachions, nous gardaient en sécurité. Les avancées rapides de l’IA ont non seulement accéléré ce processus, mais également permis une expansion massive des capacités scientifiques.
Il y a généralement une petite fenêtre entre la naissance d’une nouvelle technologie et la reconnaissance par la société des dommages qu’elle peut causer. Cette période est celle où elle peut aller non réglementée et être utilisée sans autorisation des autorités. Avec l’évolution rapide de l’IA, cette fenêtre compte beaucoup plus que beaucoup d’entre nous ne le réalisent. Et dans le cas des laboratoires autonomes, en particulier, nous devons veiller à ce qu’elle soit aussi étroite que possible. Étant donné les dommages qui pourraient en résulter, nous devons non seulement la fermer rapidement, mais nous assurer qu’elle ne soit jamais suffisamment large pour engendrer des résultats catastrophiques.