Autonome KI-Labore versprechen Heilmittel für Krankheiten, könnten aber auch tödliche Substanzen hervorrufen
Zu Beginn des Jahres 2020, als Städte weltweit aufgrund von COVID-19 in den Lockdown gingen, konnten einige Forscher ihre Experimente dennoch fortsetzen. Obwohl ihnen der Zugang zu ihren Laboren verwehrt war, konnten sie in „Cloud-Labore“ einloggen und ihre Versuche aus der Ferne einreichen, während robotergestützte Arme und automatisierte Instrumente ihre Anweisungen ausführten.
Was inmitten einer Krise als bequeme Lösung galt, ist nun eine weitverbreitete Realität, da Software, Robotik und künstliche Intelligenz (KI) zusammengekommen sind, um das Konzept des „Arbeitens von zu Hause“ auf wissenschaftliche Experimente zu übertragen. Auf der ganzen Welt haben kommerzielle Cloud-Labore begonnen, traditionelle wissenschaftliche Arbeitsabläufe umzukehren, sodass nicht mehr Forscher zwischen ihren Instrumenten wechseln, sondern Proben durch robotergestützte Wege transportiert werden.
Selbstgesteuerte Labore
Selbstgesteuerte Labore gehen noch einen Schritt weiter. Durch die Einbettung von KI direkt in diese autonomen Labore können sie über das bloße Ausführen von Anweisungen hinausgehen und aktiv neue Anweisungen generieren. Diese intelligenten automatisierten Systeme können nicht nur neue Experimente identifizieren und mit robotergestützter Infrastruktur durchführen, sondern auch ihre Ergebnisse analysieren und basierend auf dem Feedback entscheiden, was als Nächstes zu tun ist. Dadurch kann der lange Zyklus der Experimentierung in eine kontinuierliche Rückkopplungsschleife umgewandelt werden.
Die unmittelbare Folge all dessen wird eine dramatische Beschleunigung der Zeitpläne wissenschaftlichen Fortschritts sein. Wenn ein Jahr menschlicher Forschung auf Wochen oder sogar Tage komprimiert werden kann, können Tausende von experimentellen Varianten parallel erkundet werden. In einer solchen Welt ist Misserfolg billig, und Entdeckungen durch unermüdliches Iterieren sind nicht nur möglich, sondern unvermeidlich.
Risiken und Konsequenzen
In Bereichen wie der Arzneimittelentwicklung, Proteinengineering und Materialwissenschaft können diese Fähigkeiten die Wirtschaftlichkeit wissenschaftlicher Arbeiten radikal transformieren. Doch wie wir immer wieder gelernt haben, bringt der Versuch, Reibungen zu reduzieren, oft unbeabsichtigte Folgen mit sich. Indem wir das Tempo, in dem wissenschaftliche Forschung durchgeführt werden kann, beschleunigen, setzen wir uns möglicherweise unbeabsichtigt Risiken aus, über die wir bisher keinen Anlass zur Sorge hatten.
Jedes KI-System, das hilft, das Heilmittel für eine Krankheit zu identifizieren, kann ebenso leicht verwendet werden, um chemische und biologische Agenzien zu identifizieren, die uns schädigen können. Ein Beispiel ist ein maschinelles Lernverfahren, das entwickelt wurde, um nie zuvor gesehene Verbindungen mit hoher Wahrscheinlichkeit zur Heilung von Krankheiten zu identifizieren. Im Prozess der Eliminierung von geeigneten Molekülen, die toxische Nebenwirkungen hatten, generierte das System eine Liste unvorstellbar tödlicher Substanzen, die nicht nur wirksamer waren als die bekanntesten chemischen Agenzien, sondern auch effektiv nicht nachverfolgbar, da viele von ihnen noch nicht entdeckt worden waren.
So erschreckend dies auch klingt, alles, was dieses System tut, ist die Identifizierung potenziell toxischer Substanzen. Um dieses Wissen tatsächlich zu nutzen, um schädliche biologische Substanzen herzustellen, müsste jemand diese theoretischen Formeln nehmen und in tatsächliche Produkte synthetisieren. Dies erfordert nicht nur den Zugang zu einem voll ausgestatteten Labor, sondern auch Personal, das über die erforderliche Fachkenntnis verfügt, um es zu nutzen, sowie die moralische Ambivalenz, dies unabhängig von den Konsequenzen zu tun. Mit dem Aufkommen autonomer Labore wird diese Barriere bald fallen.
Regulatorische Herausforderungen
Dies ist kein hypothetisches Risiko. Die meisten biologischen KI-Systeme sind leicht reguliert. Viele sind Open Source. Nur wenige beinhalten sinnvolle Sicherheitsvorkehrungen. Die bestehenden Cloud-Labore operieren in einer regulatorischen Grauzone, obwohl sie hochwirksame Experimente durchführen können. Rechtliche Rahmenbedingungen, die für eine Welt geschaffen wurden, in der physische Einrichtungen und von Menschen kontrollierte Forschung die einzigen Mittel zur Schaffung biologischer Substanzen waren, werden Schwierigkeiten haben, sich an diese neue KI-Realität anzupassen.
Dennoch bieten selbstgesteuerte Cloud-Labore uns beispiellose Möglichkeiten für klinische Experimente. In den richtigen Händen könnte dies unsere Fähigkeit verbessern, lebensrettende Behandlungen zu entwickeln und personalisierte Therapien in großem Maßstab zu ermöglichen. So ernst die potenziellen Schäden auch sein mögen, es gibt zahlreiche Gründe, einen Weg zu finden, dies sicher zu gestalten.
Schlussfolgerung
Um dieses unangenehme Gleichgewicht zu erreichen, müssen wir dringend unsere Verträge aktualisieren und unsere Gesetze ändern. Aber damit dürfen wir nicht aufhören. Während wir automatisierte Laborsysteme aufbauen, muss Verantwortung von Anfang an in sie integriert werden. Experimente, die von KI-Agenten entworfen, implementiert und verfeinert werden, müssen identifizierbar, prüfbar und nachvollziehbar für menschliche Entscheidungsträger sein.
Cloud-Labore haben die Fernforschung ermöglicht, indem sie wissenschaftliche Arbeit widerstandsfähig gegenüber physischen Störungen gemacht haben. Dabei haben sie auch viele der Reibungen beseitigt, die uns ohne dass wir es wussten, sicher gehalten haben. Rasante Fortschritte in der KI haben nicht nur diesen Prozess beschleunigt, sondern auch eine massive Expansion wissenschaftlicher Fähigkeiten ermöglicht.
Es gibt normalerweise ein kleines Zeitfenster zwischen der Geburt einer neuen Technologie und der Anerkennung der Schäden, die sie verursachen kann. Dies ist der Zeitraum, in dem sie unreguliert bleiben und ohne Genehmigung von Behörden verwendet werden kann. Angesichts der raschen Entwicklung von KI ist dieses Zeitfenster viel bedeutender, als viele von uns erkennen. Und im Fall von selbstgesteuerten Laboren müssen wir sicherstellen, dass es so eng wie möglich bleibt. Angesichts der möglichen Schäden müssen wir nicht nur schnell handeln, sondern auch sicherstellen, dass es nie weit genug geöffnet wird, um katastrophale Ergebnisse zu verursachen.