New Yorks RAISE-Gesetz: Der Blueprint für zukünftige KI-Regulierung
New York wurde zu einem der entscheidenden Akteure in der Regulierung von künstlicher Intelligenz, als das Responsible AI Safety and Education (RAISE) Act im Dezember 2025 unterzeichnet wurde.
Das RAISE-Gesetz etablierte zusammen mit Kaliforniens SB-53 einen auf Offenlegung basierenden Rahmen zur Regulierung der leistungsstärksten KI-Modelle auf dem Markt. Diese Gesetzesinitiativen enthalten keine radikal neuen Ideen, sondern signalisieren, wie zielgerichtete, bundesstaatliche KI-Governance sich in den kommenden Jahren entwickeln und verbreiten könnte.
Der aktuelle Stand der KI-Politik
Das neue Gesetz tritt in einer Zeit in Kraft, in der die KI-Politik auf Ebene der Bundesstaaten fragmentiert ist und die Bundespolitik politisch umstritten ist. Ein Exekutivbefehl, der von der US-Regierung ausgegeben wurde, fordert das Justizministerium auf, bundesstaatliche KI-Gesetze, die möglicherweise den zwischenstaatlichen Handel verfassungswidrig regulieren oder die Rechte des Ersten Verfassungszusatzes verletzen, zu identifizieren und anzugreifen. Vorschriften zur Offenlegung von KI-Unternehmen sind explizit als eine Kategorie genannt, die einer Prüfung unterzogen werden kann.
Der RAISE Act im Detail
Das RAISE-Gesetz sieht sich anfangs als gezielt an. Es gilt nur für „große Entwickler an vorderster Front“, definiert als Unternehmen mit mehr als 500 Millionen USD Jahresumsatz, die Modelle mit mehr als 10²⁶ Operationen trainieren oder initiieren. In der Praxis betrifft dies nur eine Handvoll großer Unternehmen.
Das Gesetz konzentriert sich auf Modelle, die ganz oder teilweise in New York entwickelt, bereitgestellt oder betrieben werden. Diese Einschränkungen stellen sicher, dass der RAISE Act sich auf die fähigsten Modelle konzentriert und nicht kleinere Entwickler oder Unternehmens-KI-Nutzer erfasst.
Regulatorische Anforderungen und Transparenz
Anstelle technischer Sicherheitsvorkehrungen setzt der RAISE Act stark auf Transparenz als primäres regulatorisches Mittel. Entwickler müssen ein „Frontier AI Framework“ erstellen, implementieren und öffentlich offenlegen, das erklärt, wie sie katastrophale Risiken bewerten und mindern.
Die Verpflichtungen sind an das Konzept des „katastrophalen Risikos“ gebunden, das vorhersehbare und materielle Risiken definiert, die zu Todesfällen oder schwerem Verletzungen führen oder Schäden in Höhe von mehr als 1 Milliarde USD aus einem einzigen Vorfall verursachen könnten.
Berichterstattung über Vorfälle
Die Anforderungen an die Berichterstattung über Vorfälle sind strikt. Entwickler müssen die staatlichen Regulierungsbehörden innerhalb von 72 Stunden über kritische Sicherheitsvorfälle informieren, einschließlich unbefugtem Zugriff auf Modellgewichte, der zu Schaden führt, oder Verlust der Kontrolle über ein Modell, das zu Todesfällen oder Verletzungen führt.
Die festgelegten Fristen für die Berichterstattung sind eng. Kritische Vorfälle müssen innerhalb von 72 Stunden gemeldet werden, wenn der Vorfall ein unmittelbares Risiko für Leben oder Gesundheit darstellt. Verkürzt auf 24 Stunden, wenn eine unmittelbare Gefahr besteht.
Implikationen für KI-Governance-Teams
Entwickler werden zunehmend erwartet, Risiken schnell zu identifizieren und zu dokumentieren, insbesondere in der realen Anwendung von KI-Modellen. Unternehmen, die frühzeitig in tragfähige Governance-Prozesse investieren, werden besser positioniert sein, wenn weitere Bundesstaaten dem gleichen Muster folgen.
Fazit
Das RAISE-Gesetz ist nicht nur ein bedeutender Schritt für New York, sondern zeigt auch die Richtung an, in die sich die Regulierung von KI entwickeln wird. Die frühen Akteure in der Regulierung werden Standards setzen, die in anderen Bundesstaaten übernommen werden könnten.