New York Fortschritte im Bereich Künstliche Intelligenz Gesetz
New York hat einen bedeutenden Schritt unternommen, um der erste Bundesstaat Amerikas zu werden, der gesetzlich vorgeschriebene Transparenzstandards für fortschrittliche künstliche Intelligenzsysteme einführt. Das Responsible AI Safety and Education Act (RAISE Act), das darauf abzielt, KI-gestützte Katastrophen zu verhindern und gleichzeitig Innovationsbedenken zu berücksichtigen, die ähnliche Bemühungen in anderen Bundesstaaten scheitern ließen, hat im Juni 2025 beide Kammern der New Yorker Staatslegislative passiert und liegt nun auf dem Tisch von Gouverneurin Kathy Hochul. Diese könnte das Gesetz unterzeichnen, es zur Überarbeitung zurücksenden oder es ganz ablehnen.
Hintergrund & Hauptbestimmungen
Der RAISE Act entstand aus den Lehren, die aus Kaliforniens gescheitertem SB 1047 gezogen wurden, das letztendlich im September 2024 von Gouverneur Gavin Newsom vetotiert wurde. Der RAISE Act richtet sich nur an die leistungsstärksten KI-Systeme und gilt speziell für Unternehmen, deren KI-Modelle beide Kriterien erfüllen:
- Training Cost Threshold: KI-Modelle, die mit mehr als 100 Millionen Dollar an Rechenressourcen trainiert wurden.
- Geographic Reach: Modelle, die für New Yorker Bürger verfügbar gemacht werden.
Dieser enge Anwendungsbereich schließt absichtlich kleinere Unternehmen, Startups und akademische Forscher aus und geht somit auf zentrale Kritikpunkte des kalifornischen SB 1047 ein.
Kernanforderungen
Das Gesetz legt vier Hauptpflichten für betroffene Unternehmen fest:
- Sicherheits- und Schutzprotokolle: Die größten KI-Unternehmen müssen Sicherheits- und Schutzprotokolle sowie Risikobewertungen veröffentlichen. Diese Protokolle decken schwerwiegende Risiken ab, wie z. B. die Unterstützung bei der Erstellung biologischer Waffen oder die Durchführung automatisierter krimineller Aktivitäten.
- Vorfallberichterstattung: Das Gesetz verpflichtet KI-Labore zur Berichterstattung über Sicherheitsvorfälle, wie bedenkliches Verhalten von KI-Modellen oder das Stehlen eines KI-Modells, sollten solche Vorfälle eintreten.
- Risikobewertung und -minderung: Unternehmen müssen umfassende Risikobewertungen durchführen, die katastrophale Szenarien abdecken, einschließlich:
- Der Tod oder die Verletzung von mehr als 100 Personen
- Wirtschaftliche Schäden von über 1 Milliarde Dollar
- Unterstützung bei der Erstellung biologischer oder chemischer Waffen
- Ermöglichung großangelegter krimineller Aktivitäten
- Drittanbieter-Audits: Durchführung von Drittanbieter-Audits zur Sicherstellung der Einhaltung des Gesetzes.
Durchsetzungsmechanismen
Wenn Technologieunternehmen diese Standards nicht einhalten, ermächtigt der RAISE Act den Generalstaatsanwalt von New York, zivilrechtliche Strafen von bis zu 30 Millionen Dollar zu verhängen. Diese Durchsetzungsstruktur bietet eine bedeutende Abschreckung, während sie eine strafrechtliche Haftung vermeidet.
Sicherheitsvorkehrungen
Das Gesetz umfasst wichtige Schutzmaßnahmen für eine verantwortungsvolle Entwicklung, die es Unternehmen ermöglichen, „angemessene Streichungen“ in Sicherheitsprotokollen vorzunehmen, wenn dies erforderlich ist, um:
- Die öffentliche Sicherheit zu schützen
- Geschäftsgeheimnisse zu wahren
- Vertrauliche Informationen gemäß den gesetzlichen Anforderungen zu schützen
- Die Privatsphäre von Mitarbeitern oder Kunden zu schützen
Unterscheidungsmerkmale gegenüber Kaliforniens SB 1047
Für fortschrittliche KI-Modelle scheint der New Yorker RAISE Act speziell darauf ausgelegt zu sein, bestimmte Kritikpunkte am gescheiterten kalifornischen SB 1047 zu adressieren:
- Keine „Kill Switch“-Anforderung: Der RAISE Act verlangt von Entwicklern von KI-Modellen nicht, einen „Kill Switch“ in ihre Modelle einzubauen.
- Keine Haftung nach dem Training: Unternehmen, die fortschrittliche KI-Modelle nach dem Training betreiben, werden nicht für kritische Schäden verantwortlich gemacht.
- Akademische Ausnahmen: Universitäten und Forschungseinrichtungen sind von der Regelung ausgeschlossen.
- Schutz für Startups: Die hohe Rechenkosten-Schwelle stellt sicher, dass kleinere Unternehmen nicht betroffen sind.
Regulatorische Landschaft
Der RAISE Act spiegelt eine breitere Debatte über die Regulierung von KI in den Vereinigten Staaten wider. Wichtige Überlegungen schließen ein:
- Regulatorische Fragmentierung: Das Potenzial für ein Patchwork von staatlichen Vorschriften, das Compliance-Herausforderungen schafft.
- Bundesrechtliche Vorreiterrolle: Laufende Bemühungen des Kongresses zur Schaffung einheitlicher nationaler Standards.
- Internationale Wettbewerbsfähigkeit: Abwägung von Sicherheitsbedenken mit der Wahrung der US-Führungsrolle in der KI-Entwicklung.
Rechtliche Implikationen
Unternehmen, die fortschrittliche KI-Modelle in New York betreiben, sollten potenzielle Compliance-Anforderungen in Betracht ziehen:
- Sicherheitsprotokolldokumentation: Beginnen Sie mit der Entwicklung umfassender Sicherheits- und Schutzprotokolle, die öffentlicher Prüfung standhalten können, während sie proprietäre Informationen schützen.
- Vorfallreaktionssysteme: Etablieren Sie robuste Systeme zum Erkennen, Dokumentieren und Berichten von Sicherheitsvorfällen.
- Drittanbieter-Audit-Vorbereitung: Identifizieren Sie qualifizierte Auditoren und etablieren Sie dokumentationsbereite Systeme.
- Rechtsprüfung: Führen Sie eine gründliche rechtliche Analyse der aktuellen Abläufe unter dem vorgeschlagenen regulatorischen Rahmen durch.
Diese Analyse basiert auf öffentlich verfügbaren Informationen vom Juni 2025. Rechtspraktiker sollten laufende Entwicklungen beobachten und aktuelle Gesetze und Vorschriften für die aktuellsten Anforderungen konsultieren.
Für fortschrittliche KI-Modelle scheint der New Yorker RAISE Act speziell darauf ausgelegt zu sein, bestimmte Kritikpunkte am gescheiterten kalifornischen SB 1047 zu adressieren.