Kaliforniens neue AI-Gesetzgebung fordert Transparenz von Entwicklern

Kaliforniens wegweisendes KI-Gesetz fordert Transparenz von führenden KI-Entwicklern

Am 29. September 2025 unterzeichnete Gouverneur Gavin Newsom das Gesetzesentwurf Senate Bill 53, auch bekannt als das Transparency in Frontier Artificial Intelligence Act (TFAIA). Dieses bahnbrechende Gesetz stellt die bedeutendste Regulierung von KI-Entwicklern in Kalifornien bis heute dar.

Kalifornien ist der erste Bundesstaat der USA, der von großen KI-Entwicklern verlangt, öffentlich ein Sicherheitsrahmenwerk offenzulegen, das allgemein akzeptierte Sicherheitsstandards berücksichtigt und beschreibt, inwieweit ein Modell „katastrophale Risiken“ darstellen und mindern kann. Das Gesetz zwingt Modellentwickler zudem, zum ersten Mal Transparenzberichte über die beabsichtigten Verwendungen und Einschränkungen eines Modells zu veröffentlichen und verpflichtet große Entwickler, ihre Bewertungen der katastrophalen Risiken eines Modells zusammenzufassen. Darüber hinaus schreibt das TFAIA vor, dass Entwickler der Regierung „kritische Sicherheitsvorfälle“ melden müssen und bietet Whistleblower-Schutz für Mitarbeiter von Modellentwicklern.

TFAIA und seine Anwendung

Das TFAIA richtet sich an eine kleine, aber wachsende Anzahl von Unternehmen. Das Gesetz gilt für „Frontier-Entwickler“ – Unternehmen, die ein „Frontier-Modell“ trainiert haben oder gerade trainieren. Es werden zusätzliche Anforderungen an „große Frontier-Entwickler“ gestellt, die über einen Jahresumsatz von mehr als 500 Millionen US-Dollar im Vorjahr verfügen. Ein „Frontier-Modell“ wird durch die Menge an Rechenleistung definiert, die zum Training, Verfeinern oder Modifizieren des Modells verwendet wurde, nämlich „eine Menge an Rechenleistung, die größer ist als 10^26 Ganzzahl- oder Fließkommaoperationen (FLOP)“.

Es ist wichtig zu beachten, dass derzeit nur wenige Modelle die hohen technischen Anforderungen für ein „Frontier-Modell“ erfüllen, aber die Trends deuten darauf hin, dass in naher Zukunft viele weitere hinzukommen werden. Laut einer Analyse könnte es bis Anfang 2027 „etwa 30 solcher Modelle“ geben, die über 10^26 FLOP nutzen, und bis Anfang 2030 über 200 Modelle.

Erforderliche Offenlegungen für Frontier-Entwickler

Das TFAIA legt bedeutende regulatorische Anforderungen an Frontier-Entwickler und große Frontier-Entwickler fest, indem es Transparenz in mehreren Bereichen vorschreibt:

  • Die Einrichtung von Whistleblower-Schutz für Mitarbeiter, die für Frontier-Entwickler arbeiten.
  • Die Förderung der Schaffung einer öffentlichen Cloud-Computing-Infrastruktur zur Unterstützung der KI-Forschung.

Ein Modell für andere Bundesstaaten

Kalifornien könnte als Modell für andere Bundesstaaten und Jurisdiktionen dienen, die KI-Entwickler regulieren. In New York wartet ein Gesetz auf die Unterschrift von Gouverneurin Kathy Hochul, das Responsible AI Safety and Education (RAISE) Act, das Entwickler von Frontier-KI-Modellen verpflichtet, Sicherheitsprotokolle zu erstellen und bedeutende Sicherheitsvorfälle an den Staat zu melden. Darüber hinaus haben andere Bundesstaaten spezifische KI-Gesetze erlassen, die die Nutzung von KI in bestimmten Bereichen regulieren.

Das TFAIA stellt eine abgeschwächte Version eines KI-Sicherheitsgesetzes dar, das Gouverneur Newsom im Jahr 2024 ablehnte. Die derzeitigen Anforderungen an Transparenz und Whistleblower-Schutz könnten als Vorbild für andere Staaten dienen, die versuchen, KI-bezogene Gesetze schnell zu erlassen.

Nächste Schritte

Frontier-Entwickler und große Frontier-Entwickler sollten das TFAIA überprüfen und rechtlichen Rat einholen, um die Auswirkungen des Gesetzes auf ihre Geschäftstätigkeiten zu bewerten. Es könnte sinnvoll sein, die aktuellen Transparenzpraktiken zu beurteilen, Rahmenwerke für Frontier-KI zu entwerfen und Transparenzberichte zu erstellen, wo dies angebracht ist, sowie kritische Sicherheitsvorfälle zu melden und katastrophale Risiken zu bewerten.

More Insights

Zukunft der KI: Kooperation statt Wettbewerb

In der heutigen schnelllebigen Welt verändert die Technologie, insbesondere die künstliche Intelligenz (KI), unsere Gesellschaft grundlegend und stellt unsere Ethik in Frage. Anstatt den Fortschritt...

Pakistans nationale KI-Politik: Ein ehrgeiziger Plan für Innovation und Arbeitsplatzschaffung

Pakistan hat eine ehrgeizige nationale KI-Politik eingeführt, die darauf abzielt, innerhalb von fünf Jahren einen Binnenmarkt für KI im Wert von 2,7 Milliarden USD aufzubauen. Die Politik umfasst...

Ethik im KI-Management: Ein Leitfaden für Unternehmen

Dieser Leitfaden erläutert, warum ethische Governance ein entscheidender Faktor für skalierbare KI ist und was Unternehmen tun können, um langfristige Resilienz zu gewährleisten. Er bietet umsetzbare...

Umfassende KI-Strategien für die Hochschulbildung

Künstliche Intelligenz revolutioniert das Lernen, Lehren und die Abläufe im Hochschulbereich, indem sie personalisierte Lernbegleiter bietet und die institutionelle Resilienz stärkt. Hochschulen...

KI-Governance: Verantwortungsvoll mit globalen Standards ausrichten

Künstliche Intelligenz (KI) prägt zunehmend die Finanzdienstleistungen, die Landwirtschaft, die Bildung und sogar die Regierungsführung in Afrika. Ghana hat im Mai 2025 seine erste nationale...

Die bevorstehende KI-Krise

Die wirtschaftliche Transformation durch KI hat begonnen, wobei Unternehmen wie IBM und Salesforce Mitarbeiter durch KI-Chatbots ersetzt haben. Arbeitnehmer befürchten massenhafte Entlassungen durch...

Ethik der digitalen Arbeit: Verantwortung für die KI-Arbeitskraft

Die digitale Arbeit wird im Arbeitsplatz immer häufiger, jedoch gibt es nur wenige allgemein akzeptierte Regeln für ihre Governance. Die größte Herausforderung für Führungskräfte besteht darin, die...

Anthropic bringt Petri-Tool zur Automatisierung von KI-Sicherheitsaudits

Anthropic hat Petri, ein Open-Source-Tool zur automatisierten Prüfung der Sicherheit von KI, vorgestellt, das große Sprachmodelle (LLMs) auf riskantes Verhalten testet. Das Tool nutzt autonome...

EU KI-Gesetz und DSGVO: Konflikt oder Einklang?

Künstliche Intelligenz ist das allgegenwärtige Schlagwort in der Rechtsbranche, und der EU AI Act steht im Fokus vieler Juristen. In diesem Artikel werden die bedeutendsten Wechselwirkungen zwischen...