Regulierung von KI: Bericht der kalifornischen Arbeitsgruppe zu Grundmodellen

Bericht der California Frontier AI Arbeitsgruppe über die Regulierung von Foundation-Modellen

Am 18. März veröffentlichte die Joint California Policy Working Group on AI Frontier Models (die „Arbeitsgruppe“) ihren Entwurf eines Berichts zur Regulierung von Foundation-Modellen. Ziel ist es, eine „evidenzbasierte Grundlage für politische Entscheidungen im Bereich KI“ in Kalifornien zu bieten, die sicherstellt, dass diese leistungsstarken Technologien der Gesellschaft global zugutekommen und gleichzeitig aufkommende Risiken angemessen verwaltet werden.

Die Arbeitsgruppe wurde im September 2024 von Gouverneur Gavin Newsom (D) ins Leben gerufen, nachdem er das Gesetz zur Sicherheit und zum Schutz von Innovationen für Frontier-AI-Modelle (SB 1047) von Senat Scott Wiener (D-San Francisco) vetosiert hatte. Die Arbeitsgruppe baut auf Kaliforniens Partnerschaft mit der Stanford University und der University of California, Berkeley, auf, die durch den Exekutivbefehl von Gouverneur Newsom von 2023 zur generativen KI etabliert wurde.

Wichtige Erkenntnisse des Berichts

Der Bericht stellt fest, dass die „Fähigkeiten von Foundation-Modellen sich seit dem Veto von SB 1047 schnell verbessert haben“ und dass Kalifornien eine „einmalige Gelegenheit“ hat, die KI-Governance zu gestalten, die möglicherweise nicht unbegrenzt offen bleibt. Der Bericht bewertet Transparenz, dritte Risikobewertungen und Berichtspflichten über negative Ereignisse als Schlüsselfaktoren für die Regulierung von Foundation-Modellen.

Transparenzanforderungen

Der Bericht kommt zu dem Schluss, dass Transparenzanforderungen für Foundation-Modelle eine „notwendige Grundlage“ für die KI-Regulierung sind. Die politischen Entscheidungsträger sollten „öffentlich zugängliche Transparenz priorisieren, um die Rechenschaftspflicht am besten voranzutreiben“. Konkret empfiehlt der Bericht Transparenzanforderungen, die sich auf fünf Kategorien von Informationen über Foundation-Modelle konzentrieren:

  1. Akquisition von Trainingsdaten
  2. Sicherheitspraktiken der Entwickler
  3. Sicherheitspraktiken der Entwickler
  4. Vorab-Tests durch Entwickler und Dritte
  5. Nachgelagerte Auswirkungen, einschließlich Offenlegungen von Entitäten, die Foundation-Modelle zum Download oder zur Nutzung bereitstellen.

Dritte Risikobewertungen

Der Bericht betont, dass Transparenz „oft unzureichend ist und zusätzliche Verifikationsmechanismen“ für die Rechenschaftspflicht erfordert. Dritte Risikobewertungen sind „essentiell“, um Anreize für Entwickler zu schaffen, die Sicherheit ihrer Modelle zu erhöhen. Der Bericht fordert die politischen Entscheidungsträger auf, in Betracht zu ziehen, sichere Häfen einzurichten, die die öffentliche Sicherheitsforschung entschädigen und „Routing-Mechanismen“ einführen, um identifizierte Schwachstellen schnell an Entwickler und betroffene Parteien zu kommunizieren.

Whistleblower-Schutz

Zusätzlich bewertet der Bericht die Notwendigkeit von Whistleblower-Schutzmaßnahmen für Mitarbeiter und Auftragnehmer von Entwicklern von Foundation-Modellen. Die politischen Entscheidungsträger sollten „Schutzmaßnahmen in Betracht ziehen, die ein breiteres Spektrum von Aktivitäten abdecken“, wie etwa Versäumnisse bei der Einhaltung der KI-Sicherheitsrichtlinien eines Unternehmens, selbst wenn das gemeldete Verhalten gegen keine bestehenden Gesetze verstößt.

Berichtspflichten über negative Ereignisse

Der Bericht kommt zu dem Schluss, dass Berichtssysteme über negative Ereignisse, d.h. proaktive Überwachungssysteme, die Informationen über Ereignisse oder Vorfälle von vorgeschriebenen oder freiwilligen Meldenden sammeln, ein „kritischer erster Schritt“ bei der Bewertung der Kosten und Nutzen der KI-Regulierung sind. Die empfohlenen Berichtssysteme für Foundation-Modelle sollten:

  1. Berichte an Behörden bereitstellen, die über relevante Befugnisse und Fachkenntnisse verfügen, um identifizierte Schäden zu adressieren, mit der Möglichkeit, „anonymisierte Erkenntnisse aus Berichten mit anderen Branchenakteuren zu teilen“;
  2. „Anfänglich enge Kriterien für die Meldung negativer Ereignisse verwenden, die sich auf einen klar definierten Satz von Schäden konzentrieren“, der im Laufe der Zeit überarbeitet werden kann;
  3. „Einen hybriden Ansatz“ annehmen, der verpflichtende Berichtspflichten für kritische „Teile des KI-Stacks“ mit freiwilligen Meldungen von nachgelagerten Nutzern kombiniert.

Schwellenwerte für die Regulierung von Foundation-Modellen

Abschließend bewertet der Bericht verschiedene Optionen zur Definition von Schwellenwerten, die Foundation-Modellanforderungen auslösen würden, einschließlich „Entwickler-spezifischer“ Schwellenwerte (z.B. die Mitarbeiterzahl eines Entwicklers), „Kosten-spezifischer“ Schwellenwerte (z.B. computergestützte Kosten des Modelltrainings), „Modell-spezifischer“ Schwellenwerte basierend auf der Leistung des Modells bei wichtigen Benchmarks und „Wirkungs-spezifischer“ Schwellenwerte basierend auf der Anzahl der kommerziellen Nutzer des Modells. Der Bericht kommt zu dem Schluss, dass „Computerschwellenwerte“, wie die Schwelle des EU-KI-Gesetzes von 1025 Gleitkommaoperationen pro Sekunde (FLOPS) für das Modelltraining, „derzeit die attraktivsten kosten-spezifischen Schwellenwerte sind“, die in Kombination mit anderen Metriken verwendet werden sollten.

Der Bericht warnt jedoch ausdrücklich vor der Verwendung von üblichen entwicklerspezifischen Metriken, wie der Mitarbeiterzahl, die „die Besonderheiten der KI-Branche und die damit verbundenen Technologien nicht berücksichtigen“.

Der Bericht und der laufende öffentliche Kommentierungsprozess werden die Gesetzgeber informieren, während sie im Laufe der Legislaturperiode 2025 über KI-Gesetzgebung nachdenken, einschließlich eines Whistleblower-Gesetzes für Foundation-Modelle, das letzten Monat von Senator Wiener eingeführt wurde. Auch Gesetzgeber in Colorado, Illinois, Massachusetts, New York, Rhode Island und Vermont ziehen Gesetze für Foundation-Modelle in Betracht.

Die New York Responsible AI Safety & Education (RAISE) Act würde beispielsweise Transparenz-, Offenlegungs-, Dokumentations- und Drittprüfungsanforderungen für bestimmte Entwickler von KI-Modellen auferlegen, die ihre Compute- und Kosten-Schwellenwerte erfüllen.

Die Arbeitsgruppe sucht über ihre Webseite nach öffentlichem Input zu dem Bericht, wobei die Antworten bis zum 8. April 2025 fällig sind. Die endgültige Version des Berichts wird voraussichtlich bis Juni 2025 veröffentlicht, bevor die kalifornische Legislative im September adjourniert.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...