Fokussierung der KI-Governance auf qualitative Fähigkeitsfortschritte
Die Governance von Künstlicher Intelligenz (KI) sollte sich auf neuartige Bedrohungen konzentrieren, anstatt nur auf vertraute Risiken. Eine neue Ära der KI-Governance wird durch zwei bedeutende Entwicklungen eingeleitet.
Technologische Zugänglichkeit
Erstens zeigt der Erfolg von DeepSeek bei der Entwicklung eines fortschrittlichen, offenen Modells zu vergleichsweise niedrigen Kosten, dass der Zugang zur technologischen Spitze für viele Akteure einfacher geworden ist. Dies hat die Ökonomie der Fähigkeitsentwicklung grundlegend verändert, sodass nun auch potenzielle Gegner fortschrittliche KI-Systeme mit relativ geringen Ressourcen entwickeln und einsetzen können.
Politische Entwicklungen
Zweitens untergraben die Äußerungen von Vizepräsident JD Vance in verschiedenen Reden die bisherige Dynamik in Richtung eines einheitlichen internationalen Ansatzes zur KI-Sicherheit. Diese Äußerungen signalisieren einen Wechsel von globalen Governance-Rahmenbedingungen hin zu nationalistischen Ansätzen in der KI-Entwicklung und -Regulierung.
Der Schwerpunkt auf KI-Sicherheit
Wenn die Regierung, wie Vance angibt, das Thema KI-Sicherheit nicht mehr behandelt, wird die KI-Sicherheit zum dominierenden regulatorischen Narrativ. Dies wirft die Frage auf: Was umfasst die KI-Sicherheit?
Die KI-Sicherheit beschäftigt sich mit den „Fähigkeitsfortschritten“, die neue Bedrohungsvektoren oder Methoden für Sicherheitsangriffe schaffen. Ein Schwerpunkt auf KI-Sicherheit bedeutet, dass der Großteil der regulatorischen Aufmerksamkeit und Ressourcen auf den Schutz vor Bedrohungen gerichtet wird, die durch die neuartigen Fähigkeiten von KI-Systemen ermöglicht werden.
Aktuelle gesetzliche Bestrebungen
Die gegenwärtigen gesetzlichen Bestrebungen konzentrieren sich überwiegend auf inhaltliche und kulturelle Bedenken wie die Regulierung von KI-generierten Medien, die Bekämpfung von Vorurteilen und das Management von Fehlinformationen. Obwohl diese Themen Aufmerksamkeit verdienen, stellen sie hauptsächlich Erweiterungen bestehender Probleme dar.
Ein Beispiel ist die Problematik von Deepfakes, die zwar überzeugender und einfacher herzustellen sind, jedoch auf demselben Kontinuum wie bereits bestehende Fehlinformationsstrategien existieren. Die gegenwärtigen rechtlichen und sozialen Rahmenbedingungen können diese Bedenken mit moderaten Anpassungen weitgehend adressieren.
Einführung in die Privatsphäre
Ein aufschlussreiches Beispiel ist die Privatsphäre, die zeigt, wie KI sowohl die Nutzung als auch die Grenzen bestehender Rahmenbedingungen beeinflusst. Traditionelle Datenschutzregelungen basieren auf dem Prinzip, dass Organisationen Zustimmung einholen müssen, bevor sie bestimmte Daten sammeln.
Fortschrittliche KI-Systeme können jedoch hochsensible Informationen ableiten, die nie explizit geteilt wurden. Studien haben gezeigt, dass maschinelles Lernen persönliche Merkmale und Gesundheitszustände aus scheinbar unzusammenhängenden digitalen Fußabdrücken vorhersagen kann.
Neue Sicherheitsbedrohungen
Eine der dringendsten Bedrohungen in der KI-Sicherheit ist die Demokratisierung der Fähigkeiten zur Entwicklung von Biowaffen. Was einst das exklusive Territorium fortschrittlicher staatlicher Programme war, ist jetzt potenziell auch für nichtstaatliche Akteure zugänglich.
Die Fortschritte in der Genetik könnten es KI-Systemen ermöglichen, neuartige Pathogenvarianten zu identifizieren, die eine erhöhte Übertragbarkeit oder Letalität aufweisen. Dies stellt einen echten Sprung in den Fähigkeiten dar, da es böswilligen Akteuren ermöglicht, Biowaffen mit höheren Sterblichkeitsraten zu entwickeln.
Der regulatorische Rahmen
Der aktuelle gesetzliche Rahmen ist nicht mit diesen neuartigen Bedrohungen abgestimmt. Ein wesentlicher Fokus lag auf der Regulierung von Inhalten, wie z.B. der Kennzeichnung von KI-generierten Medien oder Datenschutzmaßnahmen, die jedoch bestehende Probleme lediglich erweitern.
Ein effektiver Ansatz zur KI-Sicherheit muss mit dem Prinzip des „Fähigkeitsüberschreitens“ beginnen, um Bedrohungen zu identifizieren, wo KI qualitativ neue Fähigkeiten schafft. Dazu sollten spezifische Kontrollen eingeführt werden, die sich auf die Fähigkeiten konzentrieren, die neue Bedrohungen darstellen.
Schlussfolgerung
Die gegenwärtige regulatorische Herangehensweise birgt die Gefahr, eine erstickende regulatorische Unsicherheit zu schaffen, die kleine und mittlere Unternehmen überproportional benachteiligt. Indem wir die regulatorische Aufmerksamkeit auf neuartige Fähigkeiten richten, die neue Bedrohungen schaffen, können wir dafür sorgen, dass gesellschaftlich vorteilhafte KI-Anwendungen weiterhin unter bestehenden rechtlichen Rahmenbedingungen entwickelt werden können.