Kalifornien verabschiedet Gesetz zur Transparenz in der KI-Entwicklung

Kalifornische Transparenzgesetzgebung für Frontier-KI

Schlüsselpunkt: Kalifornien verabschiedet als erstes Bundesland ein Gesetz zur Regulierung von Frontier-KI-Modellen.

Am 29. September 2025 unterzeichnete der Gouverneur von Kalifornien, Gavin Newsom, das Gesetz SB 53 — das Transparenzgesetz für Frontier-Künstliche Intelligenz (TFAIA). Dieses Gesetz verpflichtet große Entwickler von Künstlicher Intelligenz dazu, Sicherheitsrahmen zu veröffentlichen, bestimmte Transparenzberichte offenzulegen und kritische Sicherheitsvorfälle an das Büro für Notfallmaßnahmen (OES) zu melden. Des Weiteren schafft das Gesetz verbesserte Whistleblower-Schutzmaßnahmen für Mitarbeiter, die KI-Sicherheitsverstöße melden, und etabliert ein Konsortium zur Gestaltung eines Rahmens für CalCompute, einer öffentlichen Cloud-Plattform zur Förderung sicherer und gerechter KI-Forschung.

Hintergrund

TFAIA ist der Nachfolger des letztjährigen Gesetzes SB 1047, das vom Gouverneur aufgrund von Bedenken über negative Auswirkungen auf die KI-Wirtschaft Kaliforniens abgelehnt wurde. Trotz der Kontroversen in Silicon Valley verabschiedete der Gouverneur eine Arbeitsgruppe zur weiteren Legislationsüberlegung, die im März ihren Bericht vorlegte. TFAIA wurde mit breiter Mehrheit in beiden Kammern des Gesetzgebers verabschiedet.

Geltungsbereich des Gesetzes

TFAIA gilt für große Frontier-Entwickler, definiert als Personen, die ein KI-Modell trainiert haben, das eine bestimmte Menge an Rechenleistung verwendet. Ein „großer Frontier-Entwickler“ ist definiert als ein Entwickler mit einem Jahresumsatz von über 500 Millionen USD im Vorjahr. Diese Schwellenwerte beschränken die Anwendbarkeit des Gesetzes wahrscheinlich auf global agierende Technologiekonzerne.

Transparenzverpflichtungen

KI-Rahmen

Das Gesetz legt eine Reihe von Verpflichtungen für große Frontier-Entwickler fest, die Sicherheitsprotokolle zur Verringerung katastrophaler Risiken veröffentlichen müssen. Dazu gehört die Veröffentlichung eines detaillierten „Frontier-KI-Rahmens“ auf ihrer Website, der Risikobewertungen für katastrophale Szenarien, Maßnahmen zur Risikominderung und interne Governance-Strukturen umfasst.

Die Entwickler müssen ihre Rahmenbedingungen jährlich aktualisieren und Änderungen innerhalb von 30 Tagen öffentlich machen. Falsche oder irreführende Angaben bezüglich katastrophaler Risiken sind untersagt. Entwickler können jedoch notwendige Schwärzungen vornehmen, um Geschäftsgeheimnisse oder Sicherheitsinteressen zu schützen.

Transparenzbericht

Bei der Bereitstellung eines neuen oder wesentlich geänderten Frontier-Modells muss der Entwickler einen Transparenzbericht veröffentlichen, der die Verwendung, Einschränkungen und die Risikobewertung des Modells darlegt.

Meldepflichten

Darüber hinaus müssen große Frontier-Entwickler alle drei Monate Zusammenfassungen ihrer Risikobewertungen an das OES übermitteln.

Kritische Sicherheitsberichterstattung

Das OES wird ein Verfahren einrichten, über das ein Frontier-Entwickler einen kritischen Sicherheitsvorfall innerhalb von 15 Tagen melden muss. Wenn eine Gefahr für Leben oder schwere Verletzungen besteht, ist eine Meldung innerhalb von 24 Stunden erforderlich.

Empfehlungen für Aktualisierungen

Ab dem 1. Januar 2027 wird das Department of Technology jährlich die technologische Entwicklung und wissenschaftliche Forschung bewerten, um die Definitionen von „Frontier-Modell“ und „großem Frontier-Entwickler“ zu aktualisieren.

Durchsetzung

Bei Verstößen gegen die Veröffentlichungspflichten oder falschen Angaben kann der Staatsanwalt eine Geldstrafe von bis zu 1 Million USD pro Verstoß verhängen.

CalCompute

TFAIA etabliert ein Konsortium zur Gestaltung von „CalCompute“, einem öffentlichen Cloud-Computing-Cluster zur Förderung sicherer und gerechter KI. Bis zum 1. Januar 2027 muss das Konsortium einen umfassenden Bericht über den Rahmen, die Kosten und die Governance-Modelle vorlegen.

Whistleblower-Schutz

TFAIA schützt Whistleblower, die glauben, dass die Aktivitäten eines Frontier-Entwicklers eine erhebliche Gefahr für die öffentliche Gesundheit darstellen. Die Entwickler müssen ihren Mitarbeitern jährlich schriftlich über dieses Recht informieren.

More Insights

Zukunft der KI: Kooperation statt Wettbewerb

In der heutigen schnelllebigen Welt verändert die Technologie, insbesondere die künstliche Intelligenz (KI), unsere Gesellschaft grundlegend und stellt unsere Ethik in Frage. Anstatt den Fortschritt...

Pakistans nationale KI-Politik: Ein ehrgeiziger Plan für Innovation und Arbeitsplatzschaffung

Pakistan hat eine ehrgeizige nationale KI-Politik eingeführt, die darauf abzielt, innerhalb von fünf Jahren einen Binnenmarkt für KI im Wert von 2,7 Milliarden USD aufzubauen. Die Politik umfasst...

Ethik im KI-Management: Ein Leitfaden für Unternehmen

Dieser Leitfaden erläutert, warum ethische Governance ein entscheidender Faktor für skalierbare KI ist und was Unternehmen tun können, um langfristige Resilienz zu gewährleisten. Er bietet umsetzbare...

Umfassende KI-Strategien für die Hochschulbildung

Künstliche Intelligenz revolutioniert das Lernen, Lehren und die Abläufe im Hochschulbereich, indem sie personalisierte Lernbegleiter bietet und die institutionelle Resilienz stärkt. Hochschulen...

KI-Governance: Verantwortungsvoll mit globalen Standards ausrichten

Künstliche Intelligenz (KI) prägt zunehmend die Finanzdienstleistungen, die Landwirtschaft, die Bildung und sogar die Regierungsführung in Afrika. Ghana hat im Mai 2025 seine erste nationale...

Die bevorstehende KI-Krise

Die wirtschaftliche Transformation durch KI hat begonnen, wobei Unternehmen wie IBM und Salesforce Mitarbeiter durch KI-Chatbots ersetzt haben. Arbeitnehmer befürchten massenhafte Entlassungen durch...

Ethik der digitalen Arbeit: Verantwortung für die KI-Arbeitskraft

Die digitale Arbeit wird im Arbeitsplatz immer häufiger, jedoch gibt es nur wenige allgemein akzeptierte Regeln für ihre Governance. Die größte Herausforderung für Führungskräfte besteht darin, die...

Anthropic bringt Petri-Tool zur Automatisierung von KI-Sicherheitsaudits

Anthropic hat Petri, ein Open-Source-Tool zur automatisierten Prüfung der Sicherheit von KI, vorgestellt, das große Sprachmodelle (LLMs) auf riskantes Verhalten testet. Das Tool nutzt autonome...

EU KI-Gesetz und DSGVO: Konflikt oder Einklang?

Künstliche Intelligenz ist das allgegenwärtige Schlagwort in der Rechtsbranche, und der EU AI Act steht im Fokus vieler Juristen. In diesem Artikel werden die bedeutendsten Wechselwirkungen zwischen...