NY-Gesetzgeber wollen KI-Sicherheit stärken, Bund blockiert Regelungen

Einführung in die Regulierung von Künstlicher Intelligenz in New York

Die Gesetzgeber des Bundesstaates New York haben kürzlich Maßnahmen ergriffen, um neue Sicherheitsanforderungen für die fortschrittlichsten Künstliche Intelligenz (KI)-Modelle einzuführen. Diese neuen Regeln stehen jedoch unter dem Druck von Bundesgesetzgebern, die drohen, die Vorschriften vor ihrer Umsetzung zu blockieren.

Hintergrund der Gesetzgebung

Das Parlament des Bundesstaates hat ein Gesetz verabschiedet, das die Entwickler der größten und modernsten KI-Modelle dazu verpflichtet, umfassende Sicherheitspläne zu erstellen. Diese Pläne müssen die Schritte darlegen, die unternommen wurden, um das Risiko schwerer Schäden zu minimieren.

Der RAISE-Akt

Das Gesetz, bekannt als Responsible AI Safety and Education (RAISE)-Gesetz, verpflichtet die Entwickler, dem Staat über bedeutende Sicherheitsvorfälle zu berichten. Dazu gehören Situationen, in denen ein Modell eigenständig ohne Benutzeraufforderung agiert. Bei Verstößen können hohe Geldstrafen von bis zu 30 Millionen Dollar verhängt werden.

Reaktionen der Technologiebranche

Technologieunternehmen und deren Handelsorganisationen haben bereits Druck auf Gouverneurin Kathy Hochul ausgeübt, um das Gesetz zu vetosieren. Sie argumentieren, dass es die Innovation in einem sich schnell entwickelnden Sektor ersticken könnte.

Die Unterstützer des Gesetzes hingegen fordern Hochul auf, es zu unterzeichnen. Sie betonen, dass der Bund nicht schnell genug reagiere, um die rasante Entwicklung der KI-Branche zu regulieren.

Details der Sicherheitsanforderungen

Das Gesetz würde für Entwickler von sogenannten Frontier AI-Modellen gelten, die in New York entwickelt, bereitgestellt oder betrieben werden. Die Entwickler wären verpflichtet, ihre Sicherheitsprotokolle vor der Bereitstellung umzusetzen und einer externen Überprüfung zu unterziehen.

Definierung von kritischem Schaden

Die Sicherheitsprotokolle müssen darauf ausgelegt sein, das Risiko von „kritischem Schaden“ zu verringern. Dies sind Vorfälle, die durch das KI-Modell verursacht oder wesentlich ermöglicht werden und zu 100 oder mehr Verletzungen oder Todesfällen führen oder Schäden von über 1 Milliarde Dollar verursachen.

Forderungen des Bundes und mögliche Auswirkungen

Währenddessen diskutiert der Kongress, ob er Staaten vorübergehend von der Regulierung von KI ausschließen sollte. Ein solcher Schritt könnte das RAISE-Gesetz bevor es in Kraft tritt, effektiv abwürgen.

Die Gouverneurin hat betont, dass solche Bundesmaßnahmen das Grundrecht der Staaten untergraben würden, die Sicherheit, Gesundheit, Privatsphäre und wirtschaftliche Vitalität ihrer Bürger zu schützen.

Fazit

Die Regulierung von KI in New York stellt einen bedeutenden Schritt in der Gesetzgebung dar, um die Sicherheit im Umgang mit fortschrittlicher Technologie zu gewährleisten. Die Diskussion um die Balance zwischen Innovation und Sicherheit wird weiterhin von großer Bedeutung sein.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...