Kalifornien verabschiedet Gesetz zur Transparenz in der KI-Entwicklung

Kalifornische Transparenzgesetzgebung für Frontier-KI

Schlüsselpunkt: Kalifornien verabschiedet als erstes Bundesland ein Gesetz zur Regulierung von Frontier-KI-Modellen.

Am 29. September 2025 unterzeichnete der Gouverneur von Kalifornien, Gavin Newsom, das Gesetz SB 53 — das Transparenzgesetz für Frontier-Künstliche Intelligenz (TFAIA). Dieses Gesetz verpflichtet große Entwickler von Künstlicher Intelligenz dazu, Sicherheitsrahmen zu veröffentlichen, bestimmte Transparenzberichte offenzulegen und kritische Sicherheitsvorfälle an das Büro für Notfallmaßnahmen (OES) zu melden. Des Weiteren schafft das Gesetz verbesserte Whistleblower-Schutzmaßnahmen für Mitarbeiter, die KI-Sicherheitsverstöße melden, und etabliert ein Konsortium zur Gestaltung eines Rahmens für CalCompute, einer öffentlichen Cloud-Plattform zur Förderung sicherer und gerechter KI-Forschung.

Hintergrund

TFAIA ist der Nachfolger des letztjährigen Gesetzes SB 1047, das vom Gouverneur aufgrund von Bedenken über negative Auswirkungen auf die KI-Wirtschaft Kaliforniens abgelehnt wurde. Trotz der Kontroversen in Silicon Valley verabschiedete der Gouverneur eine Arbeitsgruppe zur weiteren Legislationsüberlegung, die im März ihren Bericht vorlegte. TFAIA wurde mit breiter Mehrheit in beiden Kammern des Gesetzgebers verabschiedet.

Geltungsbereich des Gesetzes

TFAIA gilt für große Frontier-Entwickler, definiert als Personen, die ein KI-Modell trainiert haben, das eine bestimmte Menge an Rechenleistung verwendet. Ein „großer Frontier-Entwickler“ ist definiert als ein Entwickler mit einem Jahresumsatz von über 500 Millionen USD im Vorjahr. Diese Schwellenwerte beschränken die Anwendbarkeit des Gesetzes wahrscheinlich auf global agierende Technologiekonzerne.

Transparenzverpflichtungen

KI-Rahmen

Das Gesetz legt eine Reihe von Verpflichtungen für große Frontier-Entwickler fest, die Sicherheitsprotokolle zur Verringerung katastrophaler Risiken veröffentlichen müssen. Dazu gehört die Veröffentlichung eines detaillierten „Frontier-KI-Rahmens“ auf ihrer Website, der Risikobewertungen für katastrophale Szenarien, Maßnahmen zur Risikominderung und interne Governance-Strukturen umfasst.

Die Entwickler müssen ihre Rahmenbedingungen jährlich aktualisieren und Änderungen innerhalb von 30 Tagen öffentlich machen. Falsche oder irreführende Angaben bezüglich katastrophaler Risiken sind untersagt. Entwickler können jedoch notwendige Schwärzungen vornehmen, um Geschäftsgeheimnisse oder Sicherheitsinteressen zu schützen.

Transparenzbericht

Bei der Bereitstellung eines neuen oder wesentlich geänderten Frontier-Modells muss der Entwickler einen Transparenzbericht veröffentlichen, der die Verwendung, Einschränkungen und die Risikobewertung des Modells darlegt.

Meldepflichten

Darüber hinaus müssen große Frontier-Entwickler alle drei Monate Zusammenfassungen ihrer Risikobewertungen an das OES übermitteln.

Kritische Sicherheitsberichterstattung

Das OES wird ein Verfahren einrichten, über das ein Frontier-Entwickler einen kritischen Sicherheitsvorfall innerhalb von 15 Tagen melden muss. Wenn eine Gefahr für Leben oder schwere Verletzungen besteht, ist eine Meldung innerhalb von 24 Stunden erforderlich.

Empfehlungen für Aktualisierungen

Ab dem 1. Januar 2027 wird das Department of Technology jährlich die technologische Entwicklung und wissenschaftliche Forschung bewerten, um die Definitionen von „Frontier-Modell“ und „großem Frontier-Entwickler“ zu aktualisieren.

Durchsetzung

Bei Verstößen gegen die Veröffentlichungspflichten oder falschen Angaben kann der Staatsanwalt eine Geldstrafe von bis zu 1 Million USD pro Verstoß verhängen.

CalCompute

TFAIA etabliert ein Konsortium zur Gestaltung von „CalCompute“, einem öffentlichen Cloud-Computing-Cluster zur Förderung sicherer und gerechter KI. Bis zum 1. Januar 2027 muss das Konsortium einen umfassenden Bericht über den Rahmen, die Kosten und die Governance-Modelle vorlegen.

Whistleblower-Schutz

TFAIA schützt Whistleblower, die glauben, dass die Aktivitäten eines Frontier-Entwicklers eine erhebliche Gefahr für die öffentliche Gesundheit darstellen. Die Entwickler müssen ihren Mitarbeitern jährlich schriftlich über dieses Recht informieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...