New Yorker Gesetzesinitiative für transparente KI-Standards

New York Fortschritte im Bereich Künstliche Intelligenz Gesetz

New York hat einen bedeutenden Schritt unternommen, um der erste Bundesstaat Amerikas zu werden, der gesetzlich vorgeschriebene Transparenzstandards für fortschrittliche künstliche Intelligenzsysteme einführt. Das Responsible AI Safety and Education Act (RAISE Act), das darauf abzielt, KI-gestützte Katastrophen zu verhindern und gleichzeitig Innovationsbedenken zu berücksichtigen, die ähnliche Bemühungen in anderen Bundesstaaten scheitern ließen, hat im Juni 2025 beide Kammern der New Yorker Staatslegislative passiert und liegt nun auf dem Tisch von Gouverneurin Kathy Hochul. Diese könnte das Gesetz unterzeichnen, es zur Überarbeitung zurücksenden oder es ganz ablehnen.

Hintergrund & Hauptbestimmungen

Der RAISE Act entstand aus den Lehren, die aus Kaliforniens gescheitertem SB 1047 gezogen wurden, das letztendlich im September 2024 von Gouverneur Gavin Newsom vetotiert wurde. Der RAISE Act richtet sich nur an die leistungsstärksten KI-Systeme und gilt speziell für Unternehmen, deren KI-Modelle beide Kriterien erfüllen:

  • Training Cost Threshold: KI-Modelle, die mit mehr als 100 Millionen Dollar an Rechenressourcen trainiert wurden.
  • Geographic Reach: Modelle, die für New Yorker Bürger verfügbar gemacht werden.

Dieser enge Anwendungsbereich schließt absichtlich kleinere Unternehmen, Startups und akademische Forscher aus und geht somit auf zentrale Kritikpunkte des kalifornischen SB 1047 ein.

Kernanforderungen

Das Gesetz legt vier Hauptpflichten für betroffene Unternehmen fest:

  1. Sicherheits- und Schutzprotokolle: Die größten KI-Unternehmen müssen Sicherheits- und Schutzprotokolle sowie Risikobewertungen veröffentlichen. Diese Protokolle decken schwerwiegende Risiken ab, wie z. B. die Unterstützung bei der Erstellung biologischer Waffen oder die Durchführung automatisierter krimineller Aktivitäten.
  2. Vorfallberichterstattung: Das Gesetz verpflichtet KI-Labore zur Berichterstattung über Sicherheitsvorfälle, wie bedenkliches Verhalten von KI-Modellen oder das Stehlen eines KI-Modells, sollten solche Vorfälle eintreten.
  3. Risikobewertung und -minderung: Unternehmen müssen umfassende Risikobewertungen durchführen, die katastrophale Szenarien abdecken, einschließlich:
    • Der Tod oder die Verletzung von mehr als 100 Personen
    • Wirtschaftliche Schäden von über 1 Milliarde Dollar
    • Unterstützung bei der Erstellung biologischer oder chemischer Waffen
    • Ermöglichung großangelegter krimineller Aktivitäten
  4. Drittanbieter-Audits: Durchführung von Drittanbieter-Audits zur Sicherstellung der Einhaltung des Gesetzes.

Durchsetzungsmechanismen

Wenn Technologieunternehmen diese Standards nicht einhalten, ermächtigt der RAISE Act den Generalstaatsanwalt von New York, zivilrechtliche Strafen von bis zu 30 Millionen Dollar zu verhängen. Diese Durchsetzungsstruktur bietet eine bedeutende Abschreckung, während sie eine strafrechtliche Haftung vermeidet.

Sicherheitsvorkehrungen

Das Gesetz umfasst wichtige Schutzmaßnahmen für eine verantwortungsvolle Entwicklung, die es Unternehmen ermöglichen, „angemessene Streichungen“ in Sicherheitsprotokollen vorzunehmen, wenn dies erforderlich ist, um:

  • Die öffentliche Sicherheit zu schützen
  • Geschäftsgeheimnisse zu wahren
  • Vertrauliche Informationen gemäß den gesetzlichen Anforderungen zu schützen
  • Die Privatsphäre von Mitarbeitern oder Kunden zu schützen

Unterscheidungsmerkmale gegenüber Kaliforniens SB 1047

Für fortschrittliche KI-Modelle scheint der New Yorker RAISE Act speziell darauf ausgelegt zu sein, bestimmte Kritikpunkte am gescheiterten kalifornischen SB 1047 zu adressieren:

  • Keine „Kill Switch“-Anforderung: Der RAISE Act verlangt von Entwicklern von KI-Modellen nicht, einen „Kill Switch“ in ihre Modelle einzubauen.
  • Keine Haftung nach dem Training: Unternehmen, die fortschrittliche KI-Modelle nach dem Training betreiben, werden nicht für kritische Schäden verantwortlich gemacht.
  • Akademische Ausnahmen: Universitäten und Forschungseinrichtungen sind von der Regelung ausgeschlossen.
  • Schutz für Startups: Die hohe Rechenkosten-Schwelle stellt sicher, dass kleinere Unternehmen nicht betroffen sind.

Regulatorische Landschaft

Der RAISE Act spiegelt eine breitere Debatte über die Regulierung von KI in den Vereinigten Staaten wider. Wichtige Überlegungen schließen ein:

  • Regulatorische Fragmentierung: Das Potenzial für ein Patchwork von staatlichen Vorschriften, das Compliance-Herausforderungen schafft.
  • Bundesrechtliche Vorreiterrolle: Laufende Bemühungen des Kongresses zur Schaffung einheitlicher nationaler Standards.
  • Internationale Wettbewerbsfähigkeit: Abwägung von Sicherheitsbedenken mit der Wahrung der US-Führungsrolle in der KI-Entwicklung.

Rechtliche Implikationen

Unternehmen, die fortschrittliche KI-Modelle in New York betreiben, sollten potenzielle Compliance-Anforderungen in Betracht ziehen:

  1. Sicherheitsprotokolldokumentation: Beginnen Sie mit der Entwicklung umfassender Sicherheits- und Schutzprotokolle, die öffentlicher Prüfung standhalten können, während sie proprietäre Informationen schützen.
  2. Vorfallreaktionssysteme: Etablieren Sie robuste Systeme zum Erkennen, Dokumentieren und Berichten von Sicherheitsvorfällen.
  3. Drittanbieter-Audit-Vorbereitung: Identifizieren Sie qualifizierte Auditoren und etablieren Sie dokumentationsbereite Systeme.
  4. Rechtsprüfung: Führen Sie eine gründliche rechtliche Analyse der aktuellen Abläufe unter dem vorgeschlagenen regulatorischen Rahmen durch.

Diese Analyse basiert auf öffentlich verfügbaren Informationen vom Juni 2025. Rechtspraktiker sollten laufende Entwicklungen beobachten und aktuelle Gesetze und Vorschriften für die aktuellsten Anforderungen konsultieren.

Für fortschrittliche KI-Modelle scheint der New Yorker RAISE Act speziell darauf ausgelegt zu sein, bestimmte Kritikpunkte am gescheiterten kalifornischen SB 1047 zu adressieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...