AI-Sicherheit oder Innovationsstopp? – Was das RAISE-Gesetz von New York falsch macht
Das Responsible AI Safety and Education Act (RAISE Act), das kürzlich von der Legislatur des Bundesstaates New York verabschiedet wurde, versucht, grundlegende Risiken zu adressieren, die von fortschrittlichen KI-Modellen ausgehen. Durch die Auferlegung von Verpflichtungen ausschließlich für Entwickler solcher Modelle ignoriert es jedoch die breitere Wertschöpfungskette der KI und könnte Innovationen ersticken, ohne die Sicherheit signifikant zu verbessern.
Am 12. Juni 2025 verabschiedete die Legislatur von New York das RAISE-Gesetz, das nun auf die Genehmigung von Gouverneurin Kathy Hochul wartet. Dieses Gesetz folgt dem One Big Beautiful Bill Act, das ursprünglich ein zehnjähriges Moratorium für staatliche KI-Regulierungen in Betracht zog, jedoch nie umgesetzt wurde. Vor diesem Hintergrund markiert das RAISE-Gesetz den ersten bedeutenden Vorstoß in die Regulierung von fortschrittlicher KI in New York und den USA, da es nicht nur für alle im Bundesstaat entwickelten Modelle gilt, sondern auch für Modelle, die New Yorker Bürgern zur Verfügung gestellt werden.
Inspiration und Ziele des RAISE Act
Das RAISE-Gesetz ist inspiriert vom EU-AI-Gesetz und Kaliforniens SB 1047, das 2024 von Gouverneur Gavin Newsom wegen Bedenken hinsichtlich der Innovationshemmung vetoiert wurde. Das Ziel des RAISE Act ist es, die Sicherheit von „fortschrittlichen Modellen“ zu gewährleisten, die als KI-Modelle definiert werden, die mehr als 100 Millionen Dollar für das Training kosten und eine festgelegte rechnerische Schwelle überschreiten. Das Gesetz zielt darauf ab, Missbrauch zu verhindern, der „kritischen Schaden“ verursachen könnte, definiert als der Tod oder schwere Verletzungen von mindestens 100 Personen oder wirtschaftlichen Schäden von 1 Milliarde Dollar oder mehr.
Besondere Besorgnis gilt dem potenziellen Einsatz in der Entwicklung von chemischen, biologischen, radiologischen oder nuklearen Waffen sowie der (halb)autonomen „Handlungen“ von fortschrittlichen Modellen, die, wenn sie von einem Menschen ausgeführt würden, als schwere Verbrechen nach dem Strafgesetzbuch von New York gelten würden.
Verpflichtungen für Entwickler
Gemäß dem RAISE Act müssen Entwickler vor der Veröffentlichung eines fortschrittlichen Modells Folgendes umsetzen:
- Sicherheits- und Sicherheitsprotokolle implementieren, einschließlich solcher für Risiken, die durch Drittanwendungen des Modells außerhalb der Kontrolle des Entwicklers entstehen.
- Diese Protokolle deutlich veröffentlichen und sie an die Division of Homeland Security and Emergency Services übermitteln.
- Schutzmaßnahmen implementieren, um unzumutbare Risiken von kritischem Schaden zu verhindern, ohne dass Kriterien für angemessene Schutzmaßnahmen festgelegt werden, und trotz der Unmöglichkeit, Risiken aus spekulativen Anwendungen durch Dritte zu bewerten.
Wenn unzumutbare Risiken durch Schutzmaßnahmen nicht verhindert werden können, verbietet das Gesetz die Veröffentlichung des Modells insgesamt. Die Durchsetzung liegt beim Generalstaatsanwalt, der bei einem ersten Verstoß Geldstrafen von bis zu 10 Millionen Dollar und bei wiederholten Verstößen von bis zu 30 Millionen Dollar verhängen kann.
Einseitige Verantwortung
Das RAISE-Gesetz legt alle Verpflichtungen auf die Entwickler fortschrittlicher Modelle, ohne Pflichten auf andere Akteure in der KI-Wertschöpfungskette auszuweiten, wie beispielsweise jene, die Modelle verfeinern oder modifizieren, sie in KI-Systeme integrieren oder sie als Endnutzer verwenden.
Im Gegensatz dazu verteilt das EU-AI-Gesetz, obwohl es aufgrund seiner Komplexität und hohen Compliance-Kosten kritisiert wird, die Verpflichtungen auf mehrere Akteure. Durch die Regulierung nur der Modellentwickler und deren Haftung, selbst bei Missbrauch durch Dritte, schafft das RAISE-Gesetz einen unzumutbaren Standard der Verantwortung. Entwickler können die Vielzahl möglicher nachgelagerter Anwendungen und deren potenziellen Missbrauch nicht vorhersehen oder kontrollieren.
Das Problem des „kritischen Schadens“
Das Konzept eines „Risikos von kritischem Schaden“ ist ebenfalls fehlerhaft. Fortgeschrittene Modelle sind von Natur aus allgemeine Modelle; die Risiken, die sie darstellen, hängen von ihren nachgelagerten Anwendungen ab, die in Sektor und Kontext stark variieren. Das Gesetz verlangt jedoch von den Entwicklern, diese Risiken ex ante, zum Zeitpunkt der Veröffentlichung, zu bewerten und zu mindern, obwohl diese Risiken weitgehend spekulativ, diffus und nicht messbar sind.
Gleichzeitig bietet das RAISE-Gesetz keine sinnvollen Kriterien zur Bestimmung, wann solche Risiken bestehen oder was als „angemessene Schutzmaßnahmen“ qualifiziert. Durch das Auslagern dieser Bestimmungen an zukünftige Interpretationen schafft das Gesetz rechtliche Unsicherheit und setzt Entwickler einer ex post Durchsetzung ohne klare ex ante Leitlinien aus.
Ein Schritt über die EU hinaus – und zu weit
Einige Abgeordnete aus New York setzen sich dafür ein, den Geltungsbereich des Gesetzes über das EU-AI-Gesetz hinaus auszudehnen, indem sie unabhängige Audits durch Dritte verlangen. Unter dem neuen Code of Practice der EU können Anbieter von allgemeinen AI-Modellen mit systemischen Risiken interne Bewertungen anstelle von externen Bewertungen wählen. Eine ständige Anforderung an unabhängige Audits würde jedoch starre Compliance-Kosten erzeugen, ohne nachweisbare Sicherheitsverbesserungen, da Drittauditoren vor den gleichen Herausforderungen stehen wie die Entwickler.
Der Bedarf an einem ausgewogeneren Ansatz
Kritik am RAISE Act sollte nicht mit einer Ablehnung aller Regulierungen für Anbieter von fortschrittlichen oder allgemeinen KI-Modellen verwechselt werden. Tatsächlich gibt es starke Argumente für die Auferlegung grundlegender Verpflichtungen, wie Red Teaming und Prompt Moderation, um Ausgaben zu verhindern, die Bombenbau, Kinderausbeutung oder andere offensichtlich ungesetzliche Aktivitäten fördern. Entwickler sollten auch verpflichtet sein, ausreichende Informationen mit nachgelagerten Akteuren zu teilen, um deren eigenen Verpflichtungen nachzukommen und Schutzmaßnahmen zu implementieren.
Doch sinnvolle Regulierung muss weiter gehen. Nachgelagerte Anbieter – einschließlich Verfeinerer, Anwender und Endbenutzer – sind besser in der Lage, kontextspezifische Risiken zu bewerten. Sie können bestehende Risiken verstärken oder neue schaffen, indem sie die Fähigkeiten eines Modells verbessern, eingebaute Sicherheitsfunktionen deaktivieren oder ein Modell auf unforeseen Weisen verwenden. Die Konzentration aller Verpflichtungen allein auf die Entwickler ist daher ineffektiv.
Schlussfolgerung
Das RAISE-Gesetz schafft keinen ausgewogenen Rahmen für die KI-Governance. Indem es nur fortschrittliche Entwickler ins Visier nimmt, sich auf vage Konzepte von „kritischem Schaden“ stützt, ständige Audits verlangt und vertragliche Vereinbarungen übergeht, ignoriert es die unterschiedlichen Fähigkeiten der Akteure in der KI-Wertschöpfungskette.
Statt Pflichten nach Prinzipien wie dem geringsten Kostenvermeider oder überlegenen Versicherer zu verteilen, zentralisiert das Gesetz die Haftung bei den Entwicklern, trotz ihrer begrenzten Fähigkeit, nachgelagerte Risiken vorherzusagen und zu mindern.
Wenn das RAISE-Gesetz in Kraft tritt, könnte es wenig in Bezug auf Sicherheit erreichen und gleichzeitig Innovation und Open-Source-Entwicklung in New York und darüber hinaus erheblich behindern. Statt ein Modell für verantwortungsvolle Governance zu setzen, könnte es zu einer warnenden Geschichte werden, wie gut gemeinte, aber unverhältnismäßige Regulierung den Fortschritt behindern kann, den sie zu schützen versucht. Ein effektiverer Weg wäre entweder, die gesamte Wertschöpfungskette zu regulieren, um eine faire Verteilung der Verantwortlichkeiten sicherzustellen, oder preskriptive Regeln zu verschieben, bis die Risiken von fortschrittlichen KI-Modellen klarer identifiziert, bewertet und rechtlich behandelt werden können.