Fokus auf qualitative Fortschritte in der KI-Governance

Fokussierung der KI-Governance auf qualitative Fähigkeitsfortschritte

Die Governance von Künstlicher Intelligenz (KI) sollte sich auf neuartige Bedrohungen konzentrieren, anstatt nur auf vertraute Risiken. Eine neue Ära der KI-Governance wird durch zwei bedeutende Entwicklungen eingeleitet.

Technologische Zugänglichkeit

Erstens zeigt der Erfolg von DeepSeek bei der Entwicklung eines fortschrittlichen, offenen Modells zu vergleichsweise niedrigen Kosten, dass der Zugang zur technologischen Spitze für viele Akteure einfacher geworden ist. Dies hat die Ökonomie der Fähigkeitsentwicklung grundlegend verändert, sodass nun auch potenzielle Gegner fortschrittliche KI-Systeme mit relativ geringen Ressourcen entwickeln und einsetzen können.

Politische Entwicklungen

Zweitens untergraben die Äußerungen von Vizepräsident JD Vance in verschiedenen Reden die bisherige Dynamik in Richtung eines einheitlichen internationalen Ansatzes zur KI-Sicherheit. Diese Äußerungen signalisieren einen Wechsel von globalen Governance-Rahmenbedingungen hin zu nationalistischen Ansätzen in der KI-Entwicklung und -Regulierung.

Der Schwerpunkt auf KI-Sicherheit

Wenn die Regierung, wie Vance angibt, das Thema KI-Sicherheit nicht mehr behandelt, wird die KI-Sicherheit zum dominierenden regulatorischen Narrativ. Dies wirft die Frage auf: Was umfasst die KI-Sicherheit?

Die KI-Sicherheit beschäftigt sich mit den „Fähigkeitsfortschritten“, die neue Bedrohungsvektoren oder Methoden für Sicherheitsangriffe schaffen. Ein Schwerpunkt auf KI-Sicherheit bedeutet, dass der Großteil der regulatorischen Aufmerksamkeit und Ressourcen auf den Schutz vor Bedrohungen gerichtet wird, die durch die neuartigen Fähigkeiten von KI-Systemen ermöglicht werden.

Aktuelle gesetzliche Bestrebungen

Die gegenwärtigen gesetzlichen Bestrebungen konzentrieren sich überwiegend auf inhaltliche und kulturelle Bedenken wie die Regulierung von KI-generierten Medien, die Bekämpfung von Vorurteilen und das Management von Fehlinformationen. Obwohl diese Themen Aufmerksamkeit verdienen, stellen sie hauptsächlich Erweiterungen bestehender Probleme dar.

Ein Beispiel ist die Problematik von Deepfakes, die zwar überzeugender und einfacher herzustellen sind, jedoch auf demselben Kontinuum wie bereits bestehende Fehlinformationsstrategien existieren. Die gegenwärtigen rechtlichen und sozialen Rahmenbedingungen können diese Bedenken mit moderaten Anpassungen weitgehend adressieren.

Einführung in die Privatsphäre

Ein aufschlussreiches Beispiel ist die Privatsphäre, die zeigt, wie KI sowohl die Nutzung als auch die Grenzen bestehender Rahmenbedingungen beeinflusst. Traditionelle Datenschutzregelungen basieren auf dem Prinzip, dass Organisationen Zustimmung einholen müssen, bevor sie bestimmte Daten sammeln.

Fortschrittliche KI-Systeme können jedoch hochsensible Informationen ableiten, die nie explizit geteilt wurden. Studien haben gezeigt, dass maschinelles Lernen persönliche Merkmale und Gesundheitszustände aus scheinbar unzusammenhängenden digitalen Fußabdrücken vorhersagen kann.

Neue Sicherheitsbedrohungen

Eine der dringendsten Bedrohungen in der KI-Sicherheit ist die Demokratisierung der Fähigkeiten zur Entwicklung von Biowaffen. Was einst das exklusive Territorium fortschrittlicher staatlicher Programme war, ist jetzt potenziell auch für nichtstaatliche Akteure zugänglich.

Die Fortschritte in der Genetik könnten es KI-Systemen ermöglichen, neuartige Pathogenvarianten zu identifizieren, die eine erhöhte Übertragbarkeit oder Letalität aufweisen. Dies stellt einen echten Sprung in den Fähigkeiten dar, da es böswilligen Akteuren ermöglicht, Biowaffen mit höheren Sterblichkeitsraten zu entwickeln.

Der regulatorische Rahmen

Der aktuelle gesetzliche Rahmen ist nicht mit diesen neuartigen Bedrohungen abgestimmt. Ein wesentlicher Fokus lag auf der Regulierung von Inhalten, wie z.B. der Kennzeichnung von KI-generierten Medien oder Datenschutzmaßnahmen, die jedoch bestehende Probleme lediglich erweitern.

Ein effektiver Ansatz zur KI-Sicherheit muss mit dem Prinzip des „Fähigkeitsüberschreitens“ beginnen, um Bedrohungen zu identifizieren, wo KI qualitativ neue Fähigkeiten schafft. Dazu sollten spezifische Kontrollen eingeführt werden, die sich auf die Fähigkeiten konzentrieren, die neue Bedrohungen darstellen.

Schlussfolgerung

Die gegenwärtige regulatorische Herangehensweise birgt die Gefahr, eine erstickende regulatorische Unsicherheit zu schaffen, die kleine und mittlere Unternehmen überproportional benachteiligt. Indem wir die regulatorische Aufmerksamkeit auf neuartige Fähigkeiten richten, die neue Bedrohungen schaffen, können wir dafür sorgen, dass gesellschaftlich vorteilhafte KI-Anwendungen weiterhin unter bestehenden rechtlichen Rahmenbedingungen entwickelt werden können.

More Insights

USA bricht mit UN über globale KI-Regulierung

Die US-Beamten lehnten einen Vorschlag zur Schaffung eines globalen KI-Governance-Rahmens bei der dieswöchigen Generalversammlung der Vereinten Nationen ab, obwohl der Plan von vielen Ländern...

Agentic AI: Risiken und Governance für Unternehmen

In der schnelllebigen Welt der künstlichen Intelligenz wenden sich Unternehmen zunehmend agentischen KI-Systemen zu, die Entscheidungen treffen und Aufgaben autonom ausführen können. Diese...

Die wachsende Rolle von KI als Meinungswächter und die alarmierenden versteckten Vorurteile

Die wachsende Rolle von KI als Meinungsgatekeeper wirft Bedenken hinsichtlich versteckter Vorurteile auf. Eine neue Studie warnt davor, dass subtile Vorurteile in KI-Systemen den öffentlichen Diskurs...

Regulierungsdruck auf KI: Eine neue Ära der Verantwortung

Die aufkommende Welt der Künstlichen Intelligenz (KI) befindet sich an einem kritischen Punkt, da eine Welle von Regulierungsmaßnahmen und rechtlichen Präzedenzfällen einen globalen Wandel hin zu mehr...

Die Auswahl der richtigen KI-Governance-Tools

Mit der beschleunigten Einführung von generativer KI steigen auch die Risiken. Um diese Herausforderungen zu bewältigen, haben wir mit Tokio Marine Holdings und Tokio Marine & Nichido Systems...

UN fördert globale Standards für sichere KI

Die Vereinten Nationen setzen sich dafür ein, einen globalen Konsens über „sichere, geschützte und vertrauenswürdige“ KI zu schaffen, indem sie Richtlinien und technische Standards fördern. Ein neuer...

Die Algorithmenregierung: Wie Datenwissenschaftler die Politik gestalten

In einer fesselnden Diskussion in Singapur sprachen Thomas Roehm von SAS und Frankie Phua von der United Overseas Bank über die Herausforderungen der KI-Regulierung. Ihr Gespräch beleuchtete das...

Vorbereitung von KMUs auf die KI-Regulierungen der EU

Klein- und Mittelunternehmen (KMU) stehen vor erheblichen Herausforderungen durch die KI-Verordnung der EU, insbesondere im Hinblick auf die Einhaltung strenger Vorschriften und potenziell hohe...