Regulierung von KI: Bericht der kalifornischen Arbeitsgruppe zu Grundmodellen

Bericht der California Frontier AI Arbeitsgruppe über die Regulierung von Foundation-Modellen

Am 18. März veröffentlichte die Joint California Policy Working Group on AI Frontier Models (die „Arbeitsgruppe“) ihren Entwurf eines Berichts zur Regulierung von Foundation-Modellen. Ziel ist es, eine „evidenzbasierte Grundlage für politische Entscheidungen im Bereich KI“ in Kalifornien zu bieten, die sicherstellt, dass diese leistungsstarken Technologien der Gesellschaft global zugutekommen und gleichzeitig aufkommende Risiken angemessen verwaltet werden.

Die Arbeitsgruppe wurde im September 2024 von Gouverneur Gavin Newsom (D) ins Leben gerufen, nachdem er das Gesetz zur Sicherheit und zum Schutz von Innovationen für Frontier-AI-Modelle (SB 1047) von Senat Scott Wiener (D-San Francisco) vetosiert hatte. Die Arbeitsgruppe baut auf Kaliforniens Partnerschaft mit der Stanford University und der University of California, Berkeley, auf, die durch den Exekutivbefehl von Gouverneur Newsom von 2023 zur generativen KI etabliert wurde.

Wichtige Erkenntnisse des Berichts

Der Bericht stellt fest, dass die „Fähigkeiten von Foundation-Modellen sich seit dem Veto von SB 1047 schnell verbessert haben“ und dass Kalifornien eine „einmalige Gelegenheit“ hat, die KI-Governance zu gestalten, die möglicherweise nicht unbegrenzt offen bleibt. Der Bericht bewertet Transparenz, dritte Risikobewertungen und Berichtspflichten über negative Ereignisse als Schlüsselfaktoren für die Regulierung von Foundation-Modellen.

Transparenzanforderungen

Der Bericht kommt zu dem Schluss, dass Transparenzanforderungen für Foundation-Modelle eine „notwendige Grundlage“ für die KI-Regulierung sind. Die politischen Entscheidungsträger sollten „öffentlich zugängliche Transparenz priorisieren, um die Rechenschaftspflicht am besten voranzutreiben“. Konkret empfiehlt der Bericht Transparenzanforderungen, die sich auf fünf Kategorien von Informationen über Foundation-Modelle konzentrieren:

  1. Akquisition von Trainingsdaten
  2. Sicherheitspraktiken der Entwickler
  3. Sicherheitspraktiken der Entwickler
  4. Vorab-Tests durch Entwickler und Dritte
  5. Nachgelagerte Auswirkungen, einschließlich Offenlegungen von Entitäten, die Foundation-Modelle zum Download oder zur Nutzung bereitstellen.

Dritte Risikobewertungen

Der Bericht betont, dass Transparenz „oft unzureichend ist und zusätzliche Verifikationsmechanismen“ für die Rechenschaftspflicht erfordert. Dritte Risikobewertungen sind „essentiell“, um Anreize für Entwickler zu schaffen, die Sicherheit ihrer Modelle zu erhöhen. Der Bericht fordert die politischen Entscheidungsträger auf, in Betracht zu ziehen, sichere Häfen einzurichten, die die öffentliche Sicherheitsforschung entschädigen und „Routing-Mechanismen“ einführen, um identifizierte Schwachstellen schnell an Entwickler und betroffene Parteien zu kommunizieren.

Whistleblower-Schutz

Zusätzlich bewertet der Bericht die Notwendigkeit von Whistleblower-Schutzmaßnahmen für Mitarbeiter und Auftragnehmer von Entwicklern von Foundation-Modellen. Die politischen Entscheidungsträger sollten „Schutzmaßnahmen in Betracht ziehen, die ein breiteres Spektrum von Aktivitäten abdecken“, wie etwa Versäumnisse bei der Einhaltung der KI-Sicherheitsrichtlinien eines Unternehmens, selbst wenn das gemeldete Verhalten gegen keine bestehenden Gesetze verstößt.

Berichtspflichten über negative Ereignisse

Der Bericht kommt zu dem Schluss, dass Berichtssysteme über negative Ereignisse, d.h. proaktive Überwachungssysteme, die Informationen über Ereignisse oder Vorfälle von vorgeschriebenen oder freiwilligen Meldenden sammeln, ein „kritischer erster Schritt“ bei der Bewertung der Kosten und Nutzen der KI-Regulierung sind. Die empfohlenen Berichtssysteme für Foundation-Modelle sollten:

  1. Berichte an Behörden bereitstellen, die über relevante Befugnisse und Fachkenntnisse verfügen, um identifizierte Schäden zu adressieren, mit der Möglichkeit, „anonymisierte Erkenntnisse aus Berichten mit anderen Branchenakteuren zu teilen“;
  2. „Anfänglich enge Kriterien für die Meldung negativer Ereignisse verwenden, die sich auf einen klar definierten Satz von Schäden konzentrieren“, der im Laufe der Zeit überarbeitet werden kann;
  3. „Einen hybriden Ansatz“ annehmen, der verpflichtende Berichtspflichten für kritische „Teile des KI-Stacks“ mit freiwilligen Meldungen von nachgelagerten Nutzern kombiniert.

Schwellenwerte für die Regulierung von Foundation-Modellen

Abschließend bewertet der Bericht verschiedene Optionen zur Definition von Schwellenwerten, die Foundation-Modellanforderungen auslösen würden, einschließlich „Entwickler-spezifischer“ Schwellenwerte (z.B. die Mitarbeiterzahl eines Entwicklers), „Kosten-spezifischer“ Schwellenwerte (z.B. computergestützte Kosten des Modelltrainings), „Modell-spezifischer“ Schwellenwerte basierend auf der Leistung des Modells bei wichtigen Benchmarks und „Wirkungs-spezifischer“ Schwellenwerte basierend auf der Anzahl der kommerziellen Nutzer des Modells. Der Bericht kommt zu dem Schluss, dass „Computerschwellenwerte“, wie die Schwelle des EU-KI-Gesetzes von 1025 Gleitkommaoperationen pro Sekunde (FLOPS) für das Modelltraining, „derzeit die attraktivsten kosten-spezifischen Schwellenwerte sind“, die in Kombination mit anderen Metriken verwendet werden sollten.

Der Bericht warnt jedoch ausdrücklich vor der Verwendung von üblichen entwicklerspezifischen Metriken, wie der Mitarbeiterzahl, die „die Besonderheiten der KI-Branche und die damit verbundenen Technologien nicht berücksichtigen“.

Der Bericht und der laufende öffentliche Kommentierungsprozess werden die Gesetzgeber informieren, während sie im Laufe der Legislaturperiode 2025 über KI-Gesetzgebung nachdenken, einschließlich eines Whistleblower-Gesetzes für Foundation-Modelle, das letzten Monat von Senator Wiener eingeführt wurde. Auch Gesetzgeber in Colorado, Illinois, Massachusetts, New York, Rhode Island und Vermont ziehen Gesetze für Foundation-Modelle in Betracht.

Die New York Responsible AI Safety & Education (RAISE) Act würde beispielsweise Transparenz-, Offenlegungs-, Dokumentations- und Drittprüfungsanforderungen für bestimmte Entwickler von KI-Modellen auferlegen, die ihre Compute- und Kosten-Schwellenwerte erfüllen.

Die Arbeitsgruppe sucht über ihre Webseite nach öffentlichem Input zu dem Bericht, wobei die Antworten bis zum 8. April 2025 fällig sind. Die endgültige Version des Berichts wird voraussichtlich bis Juni 2025 veröffentlicht, bevor die kalifornische Legislative im September adjourniert.

More Insights

AI-Rüstungswettlauf und die Auswirkungen von Tarifen auf den EU-AI-Gesetz

Tarife können sowohl als Hindernis als auch als potenzieller Katalysator für den Fortschritt von KI und Automatisierung wirken. In Kombination mit dem EU-KI-Gesetz ergeben sich komplexe...

Europäische Kommission: Aktionsplan für KI-Souveränität

Die Europäische Kommission hat ihren AI Continent Action Plan veröffentlicht, der darauf abzielt, Europa als globalen Führer im Bereich der künstlichen Intelligenz zu etablieren. Der Plan umfasst eine...

Die AI-Herausforderung: Singapur zwischen Innovation und Regulierung

Singapur steht vor der Herausforderung, ein Gleichgewicht zwischen Innovation und Regulierung im Bereich der Künstlichen Intelligenz (KI) zu finden. Angesichts von Bedenken hinsichtlich Datenschutz...

Verantwortliche KI im Finanzsektor

Lexy Kassan diskutiert die entscheidenden Aspekte von verantwortungsbewusstem KI-Einsatz, insbesondere im Hinblick auf regulatorische Aktualisierungen wie den EU AI Act und dessen Auswirkungen auf die...

Menschzentrierte KI: Wegbereiter für ethische und verantwortungsvolle KI-Agenten

In der sich ständig weiterentwickelnden Landschaft der künstlichen Intelligenz gewinnt das Gespräch über human-zentrierte KI (HCAI) an erheblicher Bedeutung. Diese Paradigmenwechsel ist nicht nur eine...

Der EU AI Act: Grundlagen der Regulierung von Künstlicher Intelligenz

Der EU AI Act markiert den Beginn einer neuen Ära der Regulierung von künstlicher Intelligenz in Europa. Er schafft ein einheitliches rechtliches Regime für alle EU-Mitgliedstaaten und zielt darauf...

EU-Kommission präsentiert Aktionsplan für KI-Entwicklung

Am 9. April 2025 verabschiedete die Europäische Kommission eine Mitteilung über den sogenannten AI Continent Action Plan – ihre Strategie zur Gestaltung der nächsten Phase der KI-Entwicklung in...

Aktualisierte KI-Modellvertragsklauseln der EU veröffentlicht

Die Gemeinschaft der Praxis der EU für öffentliche Beschaffung von KI hat am 5. März 2025 eine aktualisierte Version ihrer nicht verbindlichen EU AI-Modellvertragsklauseln veröffentlicht. Diese...

EU AI Gesetz: Emotionale Erkennungssysteme am Arbeitsplatz unter der Lupe

Emotionserkennungs-KI bezieht sich auf KI, die biometrische Daten wie Gesichtsausdrücke und Stimme verwendet, um Emotionen zu identifizieren und zu analysieren. Der EU AI Act verbietet die Verwendung...