Kaliforniens AI-Gesetz abgelehnt
Die jüngsten Bestrebungen zur Regulierung von künstlicher Intelligenz (KI) in Kalifornien haben einen Rückschlag erlitten, als Gouverneur Gavin Newsom das Gesetz SB 1047, auch bekannt als das Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, ablehnte. Dieses Gesetz sollte als Reaktion auf die wachsenden Bedenken hinsichtlich der öffentlichen Sicherheit im Zusammenhang mit KI-Systemen dienen.
Hintergrund
Die Gesetzgebung wurde im August 2024 verabschiedet, um sicherzustellen, dass Entwickler von großen KI-Modellen Verantwortung für potenzielle kritische Schäden tragen. Die Debatte um SB 1047 war von intensiven Lobbyaktivitäten geprägt, sowohl von Befürwortern als auch von Gegnern des Gesetzes.
Das Gesetz sah vor, dass Entwickler von sehr großen KI-Modellen (definiert als Modelle, die mehr als 1026 Operationen benötigen oder mehr als 100 Millionen Dollar für das Training kosten) sicherstellen müssen, dass ihre Modelle keine „kritischen Schäden“ verursachen. Diese Schäden wurden in vier Kategorien unterteilt:
- Die Schaffung oder Nutzung von chemischen, biologischen, radiologischen oder nuklearen Waffen, die Massenopfer verursachen;
- Massenopfer oder Schäden von über 500 Millionen Dollar aufgrund von Cyberangriffen auf kritische Infrastrukturen;
- Massenopfer oder Schäden, die durch Körperverletzung oder Sachschaden verursacht werden, die als Verbrechen gelten würden, wenn Menschen dafür verantwortlich wären;
- Andere vergleichbar schwerwiegende Schäden für die öffentliche Sicherheit und Ordnung.
Vergleich zwischen SB 1047 und dem AI Act der EU
Ein zentraler Aspekt des Gesetzes war die Verantwortung der Entwickler für die Sicherheit ihrer Modelle. SB 1047 unterschied sich vom EU AI Act, da es sich hauptsächlich auf die Entwickler von großen Modellen konzentrierte, während der EU-Gesetzgeber auch die Nutzer solcher Modelle in den Fokus nahm. Ein weiteres bemerkenswertes Merkmal war die Anforderung, einen „Kill Switch“ einzubauen, um das Modell im Falle von Risiken abzuschalten, eine Vorschrift, die im EU AI Act nicht enthalten ist.
Proponenten und Gegner
Zu den Befürwortern von SB 1047 gehörten einige der bekanntesten Unternehmen und Persönlichkeiten im KI-Bereich, die die Notwendigkeit einer Regulierung zur Vermeidung kritischer Schäden anerkannten. Auf der anderen Seite standen große Technologieunternehmen wie Google, Meta und OpenAI, die Bedenken äußerten, dass das Gesetz die Innovation in der KI-Branche behindern könnte.
Ein zentrales Argument der Gegner war, dass die Regulierung von KI auf nachgewiesenen Schäden basieren sollte, anstatt hypothetische Risiken zu adressieren. Kritiker wie Nancy Pelosi und Fei Fei Li betonten, dass die Technologie noch in den Kinderschuhen steckt und dass die Vorschriften zu früh kommen könnten.
Der Veto von Gouverneur Newsom
Governor Newsom begründete seine Entscheidung, das Gesetz abzulehnen, mit der Sorge, dass es die Innovation in Kalifornien gefährden könnte. Er betonte die Notwendigkeit, Regulierung auf empirische Beweise zu stützen und warnte vor der Gefahr, dass kleinere Modelle, die nicht reguliert werden, ebenso gefährlich sein könnten wie die großen Modelle.
Schlussfolgerung
Die Ablehnung von SB 1047 ist ein bedeutender Moment in der Debatte über die Regulierung von KI-Technologien. Es zeigt die Herausforderungen auf, die mit der Entwicklung von Richtlinien zur Gewährleistung der Sicherheit in einer sich schnell entwickelnden Branche verbunden sind. Zukünftige Regelungen müssen ein Gleichgewicht finden zwischen der Förderung von Innovation und dem Schutz der Öffentlichkeit vor potenziellen Risiken.