Kaliforniens AI-Gesetz abgelehnt: Ein Rückblick

Kaliforniens AI-Gesetz abgelehnt

Die jüngsten Bestrebungen zur Regulierung von künstlicher Intelligenz (KI) in Kalifornien haben einen Rückschlag erlitten, als Gouverneur Gavin Newsom das Gesetz SB 1047, auch bekannt als das Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, ablehnte. Dieses Gesetz sollte als Reaktion auf die wachsenden Bedenken hinsichtlich der öffentlichen Sicherheit im Zusammenhang mit KI-Systemen dienen.

Hintergrund

Die Gesetzgebung wurde im August 2024 verabschiedet, um sicherzustellen, dass Entwickler von großen KI-Modellen Verantwortung für potenzielle kritische Schäden tragen. Die Debatte um SB 1047 war von intensiven Lobbyaktivitäten geprägt, sowohl von Befürwortern als auch von Gegnern des Gesetzes.

Das Gesetz sah vor, dass Entwickler von sehr großen KI-Modellen (definiert als Modelle, die mehr als 1026 Operationen benötigen oder mehr als 100 Millionen Dollar für das Training kosten) sicherstellen müssen, dass ihre Modelle keine „kritischen Schäden“ verursachen. Diese Schäden wurden in vier Kategorien unterteilt:

  • Die Schaffung oder Nutzung von chemischen, biologischen, radiologischen oder nuklearen Waffen, die Massenopfer verursachen;
  • Massenopfer oder Schäden von über 500 Millionen Dollar aufgrund von Cyberangriffen auf kritische Infrastrukturen;
  • Massenopfer oder Schäden, die durch Körperverletzung oder Sachschaden verursacht werden, die als Verbrechen gelten würden, wenn Menschen dafür verantwortlich wären;
  • Andere vergleichbar schwerwiegende Schäden für die öffentliche Sicherheit und Ordnung.

Vergleich zwischen SB 1047 und dem AI Act der EU

Ein zentraler Aspekt des Gesetzes war die Verantwortung der Entwickler für die Sicherheit ihrer Modelle. SB 1047 unterschied sich vom EU AI Act, da es sich hauptsächlich auf die Entwickler von großen Modellen konzentrierte, während der EU-Gesetzgeber auch die Nutzer solcher Modelle in den Fokus nahm. Ein weiteres bemerkenswertes Merkmal war die Anforderung, einen „Kill Switch“ einzubauen, um das Modell im Falle von Risiken abzuschalten, eine Vorschrift, die im EU AI Act nicht enthalten ist.

Proponenten und Gegner

Zu den Befürwortern von SB 1047 gehörten einige der bekanntesten Unternehmen und Persönlichkeiten im KI-Bereich, die die Notwendigkeit einer Regulierung zur Vermeidung kritischer Schäden anerkannten. Auf der anderen Seite standen große Technologieunternehmen wie Google, Meta und OpenAI, die Bedenken äußerten, dass das Gesetz die Innovation in der KI-Branche behindern könnte.

Ein zentrales Argument der Gegner war, dass die Regulierung von KI auf nachgewiesenen Schäden basieren sollte, anstatt hypothetische Risiken zu adressieren. Kritiker wie Nancy Pelosi und Fei Fei Li betonten, dass die Technologie noch in den Kinderschuhen steckt und dass die Vorschriften zu früh kommen könnten.

Der Veto von Gouverneur Newsom

Governor Newsom begründete seine Entscheidung, das Gesetz abzulehnen, mit der Sorge, dass es die Innovation in Kalifornien gefährden könnte. Er betonte die Notwendigkeit, Regulierung auf empirische Beweise zu stützen und warnte vor der Gefahr, dass kleinere Modelle, die nicht reguliert werden, ebenso gefährlich sein könnten wie die großen Modelle.

Schlussfolgerung

Die Ablehnung von SB 1047 ist ein bedeutender Moment in der Debatte über die Regulierung von KI-Technologien. Es zeigt die Herausforderungen auf, die mit der Entwicklung von Richtlinien zur Gewährleistung der Sicherheit in einer sich schnell entwickelnden Branche verbunden sind. Zukünftige Regelungen müssen ein Gleichgewicht finden zwischen der Förderung von Innovation und dem Schutz der Öffentlichkeit vor potenziellen Risiken.

More Insights

Risiken der KI: Was Unternehmen ignorieren sollten

Im Jahr 2024 stellte der Softwareanbieter Sage seinen generativen KI-Assistenten ein, nachdem Benutzer berichtet hatten, dass sensible Finanzdaten zwischen Konten geleakt wurden. Unternehmen stehen...

Die Notwendigkeit für KI-Sicherheit: Chancen und Herausforderungen

Die Revolution der künstlichen Intelligenz ist keine ferne Verheißung mehr – sie ist hier und verändert Branchen, Volkswirtschaften und das tägliche Leben. Um die Macht der KI verantwortungsvoll zu...

Künstliche Intelligenz im Polizeiwesen: Chancen und Herausforderungen

Gesetzesvollzugsbehörden nutzen zunehmend künstliche Intelligenz (KI), um ihre Abläufe zu verbessern, insbesondere durch erweiterte Möglichkeiten für prädiktive Polizeiarbeit. Der globale Markt für...

Kenias Führungsrolle bei UN-Vereinbarung zur KI-Governance

Kenia hat einen bedeutenden diplomatischen Erfolg erzielt, nachdem alle 193 Mitgliedstaaten der Vereinten Nationen einstimmig beschlossen haben, zwei wegweisende Institutionen zur Regulierung der...

Stakeholder-Forderung nach einem Rahmen für die KI-Governance

Die Stakeholder forderten die Entwicklung eines Governance-Rahmens für Künstliche Intelligenz (KI), um sicherzustellen, dass diese verantwortungsvoll eingesetzt wird. Diese Aufforderung wurde auf der...

Wichtige Richtlinien für die KI-Einführung im Gesundheitswesen

Die AMA hat Leitlinien für die Einführung und Governance von Künstlicher Intelligenz (KI) in Gesundheitssystemen veröffentlicht, die für CMOs und andere Führungskräfte im Gesundheitswesen wichtig...

UN richtet internationales Gremium zur KI-Governance ein

Die Generalversammlung der Vereinten Nationen hat eine Resolution verabschiedet, die die Modalitäten zur Einrichtung eines unabhängigen internationalen wissenschaftlichen Panels für Künstliche...

Neue Cyberbedrohungen: Von Datenvergiftung zu KI-Agenten

Künstliche Intelligenz (KI)-Tools verbreiten sich rasant in verschiedenen Branchen, was neue Möglichkeiten zur Effizienzsteigerung bietet, aber auch das Risiko von Cyberangriffen erhöht. Während KI...