Kaliforniens AI-Gesetz abgelehnt: Ein Rückblick

Kaliforniens AI-Gesetz abgelehnt

Die jüngsten Bestrebungen zur Regulierung von künstlicher Intelligenz (KI) in Kalifornien haben einen Rückschlag erlitten, als Gouverneur Gavin Newsom das Gesetz SB 1047, auch bekannt als das Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, ablehnte. Dieses Gesetz sollte als Reaktion auf die wachsenden Bedenken hinsichtlich der öffentlichen Sicherheit im Zusammenhang mit KI-Systemen dienen.

Hintergrund

Die Gesetzgebung wurde im August 2024 verabschiedet, um sicherzustellen, dass Entwickler von großen KI-Modellen Verantwortung für potenzielle kritische Schäden tragen. Die Debatte um SB 1047 war von intensiven Lobbyaktivitäten geprägt, sowohl von Befürwortern als auch von Gegnern des Gesetzes.

Das Gesetz sah vor, dass Entwickler von sehr großen KI-Modellen (definiert als Modelle, die mehr als 1026 Operationen benötigen oder mehr als 100 Millionen Dollar für das Training kosten) sicherstellen müssen, dass ihre Modelle keine „kritischen Schäden“ verursachen. Diese Schäden wurden in vier Kategorien unterteilt:

  • Die Schaffung oder Nutzung von chemischen, biologischen, radiologischen oder nuklearen Waffen, die Massenopfer verursachen;
  • Massenopfer oder Schäden von über 500 Millionen Dollar aufgrund von Cyberangriffen auf kritische Infrastrukturen;
  • Massenopfer oder Schäden, die durch Körperverletzung oder Sachschaden verursacht werden, die als Verbrechen gelten würden, wenn Menschen dafür verantwortlich wären;
  • Andere vergleichbar schwerwiegende Schäden für die öffentliche Sicherheit und Ordnung.

Vergleich zwischen SB 1047 und dem AI Act der EU

Ein zentraler Aspekt des Gesetzes war die Verantwortung der Entwickler für die Sicherheit ihrer Modelle. SB 1047 unterschied sich vom EU AI Act, da es sich hauptsächlich auf die Entwickler von großen Modellen konzentrierte, während der EU-Gesetzgeber auch die Nutzer solcher Modelle in den Fokus nahm. Ein weiteres bemerkenswertes Merkmal war die Anforderung, einen „Kill Switch“ einzubauen, um das Modell im Falle von Risiken abzuschalten, eine Vorschrift, die im EU AI Act nicht enthalten ist.

Proponenten und Gegner

Zu den Befürwortern von SB 1047 gehörten einige der bekanntesten Unternehmen und Persönlichkeiten im KI-Bereich, die die Notwendigkeit einer Regulierung zur Vermeidung kritischer Schäden anerkannten. Auf der anderen Seite standen große Technologieunternehmen wie Google, Meta und OpenAI, die Bedenken äußerten, dass das Gesetz die Innovation in der KI-Branche behindern könnte.

Ein zentrales Argument der Gegner war, dass die Regulierung von KI auf nachgewiesenen Schäden basieren sollte, anstatt hypothetische Risiken zu adressieren. Kritiker wie Nancy Pelosi und Fei Fei Li betonten, dass die Technologie noch in den Kinderschuhen steckt und dass die Vorschriften zu früh kommen könnten.

Der Veto von Gouverneur Newsom

Governor Newsom begründete seine Entscheidung, das Gesetz abzulehnen, mit der Sorge, dass es die Innovation in Kalifornien gefährden könnte. Er betonte die Notwendigkeit, Regulierung auf empirische Beweise zu stützen und warnte vor der Gefahr, dass kleinere Modelle, die nicht reguliert werden, ebenso gefährlich sein könnten wie die großen Modelle.

Schlussfolgerung

Die Ablehnung von SB 1047 ist ein bedeutender Moment in der Debatte über die Regulierung von KI-Technologien. Es zeigt die Herausforderungen auf, die mit der Entwicklung von Richtlinien zur Gewährleistung der Sicherheit in einer sich schnell entwickelnden Branche verbunden sind. Zukünftige Regelungen müssen ein Gleichgewicht finden zwischen der Förderung von Innovation und dem Schutz der Öffentlichkeit vor potenziellen Risiken.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...