RAISE Act: Der Wegweiser für die KI-Regulierung in New York

New Yorks RAISE-Gesetz: Der Blueprint für zukünftige KI-Regulierung

New York wurde zu einem der entscheidenden Akteure in der Regulierung von künstlicher Intelligenz, als das Responsible AI Safety and Education (RAISE) Act im Dezember 2025 unterzeichnet wurde.

Das RAISE-Gesetz etablierte zusammen mit Kaliforniens SB-53 einen auf Offenlegung basierenden Rahmen zur Regulierung der leistungsstärksten KI-Modelle auf dem Markt. Diese Gesetzesinitiativen enthalten keine radikal neuen Ideen, sondern signalisieren, wie zielgerichtete, bundesstaatliche KI-Governance sich in den kommenden Jahren entwickeln und verbreiten könnte.

Der aktuelle Stand der KI-Politik

Das neue Gesetz tritt in einer Zeit in Kraft, in der die KI-Politik auf Ebene der Bundesstaaten fragmentiert ist und die Bundespolitik politisch umstritten ist. Ein Exekutivbefehl, der von der US-Regierung ausgegeben wurde, fordert das Justizministerium auf, bundesstaatliche KI-Gesetze, die möglicherweise den zwischenstaatlichen Handel verfassungswidrig regulieren oder die Rechte des Ersten Verfassungszusatzes verletzen, zu identifizieren und anzugreifen. Vorschriften zur Offenlegung von KI-Unternehmen sind explizit als eine Kategorie genannt, die einer Prüfung unterzogen werden kann.

Der RAISE Act im Detail

Das RAISE-Gesetz sieht sich anfangs als gezielt an. Es gilt nur für „große Entwickler an vorderster Front“, definiert als Unternehmen mit mehr als 500 Millionen USD Jahresumsatz, die Modelle mit mehr als 10²⁶ Operationen trainieren oder initiieren. In der Praxis betrifft dies nur eine Handvoll großer Unternehmen.

Das Gesetz konzentriert sich auf Modelle, die ganz oder teilweise in New York entwickelt, bereitgestellt oder betrieben werden. Diese Einschränkungen stellen sicher, dass der RAISE Act sich auf die fähigsten Modelle konzentriert und nicht kleinere Entwickler oder Unternehmens-KI-Nutzer erfasst.

Regulatorische Anforderungen und Transparenz

Anstelle technischer Sicherheitsvorkehrungen setzt der RAISE Act stark auf Transparenz als primäres regulatorisches Mittel. Entwickler müssen ein „Frontier AI Framework“ erstellen, implementieren und öffentlich offenlegen, das erklärt, wie sie katastrophale Risiken bewerten und mindern.

Die Verpflichtungen sind an das Konzept des „katastrophalen Risikos“ gebunden, das vorhersehbare und materielle Risiken definiert, die zu Todesfällen oder schwerem Verletzungen führen oder Schäden in Höhe von mehr als 1 Milliarde USD aus einem einzigen Vorfall verursachen könnten.

Berichterstattung über Vorfälle

Die Anforderungen an die Berichterstattung über Vorfälle sind strikt. Entwickler müssen die staatlichen Regulierungsbehörden innerhalb von 72 Stunden über kritische Sicherheitsvorfälle informieren, einschließlich unbefugtem Zugriff auf Modellgewichte, der zu Schaden führt, oder Verlust der Kontrolle über ein Modell, das zu Todesfällen oder Verletzungen führt.

Die festgelegten Fristen für die Berichterstattung sind eng. Kritische Vorfälle müssen innerhalb von 72 Stunden gemeldet werden, wenn der Vorfall ein unmittelbares Risiko für Leben oder Gesundheit darstellt. Verkürzt auf 24 Stunden, wenn eine unmittelbare Gefahr besteht.

Implikationen für KI-Governance-Teams

Entwickler werden zunehmend erwartet, Risiken schnell zu identifizieren und zu dokumentieren, insbesondere in der realen Anwendung von KI-Modellen. Unternehmen, die frühzeitig in tragfähige Governance-Prozesse investieren, werden besser positioniert sein, wenn weitere Bundesstaaten dem gleichen Muster folgen.

Fazit

Das RAISE-Gesetz ist nicht nur ein bedeutender Schritt für New York, sondern zeigt auch die Richtung an, in die sich die Regulierung von KI entwickeln wird. Die frühen Akteure in der Regulierung werden Standards setzen, die in anderen Bundesstaaten übernommen werden könnten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...