Bericht der California Frontier AI Arbeitsgruppe über die Regulierung von Foundation-Modellen
Am 18. März veröffentlichte die Joint California Policy Working Group on AI Frontier Models (die „Arbeitsgruppe“) ihren Entwurf eines Berichts zur Regulierung von Foundation-Modellen. Ziel ist es, eine „evidenzbasierte Grundlage für politische Entscheidungen im Bereich KI“ in Kalifornien zu bieten, die sicherstellt, dass diese leistungsstarken Technologien der Gesellschaft global zugutekommen und gleichzeitig aufkommende Risiken angemessen verwaltet werden.
Die Arbeitsgruppe wurde im September 2024 von Gouverneur Gavin Newsom (D) ins Leben gerufen, nachdem er das Gesetz zur Sicherheit und zum Schutz von Innovationen für Frontier-AI-Modelle (SB 1047) von Senat Scott Wiener (D-San Francisco) vetosiert hatte. Die Arbeitsgruppe baut auf Kaliforniens Partnerschaft mit der Stanford University und der University of California, Berkeley, auf, die durch den Exekutivbefehl von Gouverneur Newsom von 2023 zur generativen KI etabliert wurde.
Wichtige Erkenntnisse des Berichts
Der Bericht stellt fest, dass die „Fähigkeiten von Foundation-Modellen sich seit dem Veto von SB 1047 schnell verbessert haben“ und dass Kalifornien eine „einmalige Gelegenheit“ hat, die KI-Governance zu gestalten, die möglicherweise nicht unbegrenzt offen bleibt. Der Bericht bewertet Transparenz, dritte Risikobewertungen und Berichtspflichten über negative Ereignisse als Schlüsselfaktoren für die Regulierung von Foundation-Modellen.
Transparenzanforderungen
Der Bericht kommt zu dem Schluss, dass Transparenzanforderungen für Foundation-Modelle eine „notwendige Grundlage“ für die KI-Regulierung sind. Die politischen Entscheidungsträger sollten „öffentlich zugängliche Transparenz priorisieren, um die Rechenschaftspflicht am besten voranzutreiben“. Konkret empfiehlt der Bericht Transparenzanforderungen, die sich auf fünf Kategorien von Informationen über Foundation-Modelle konzentrieren:
- Akquisition von Trainingsdaten
- Sicherheitspraktiken der Entwickler
- Sicherheitspraktiken der Entwickler
- Vorab-Tests durch Entwickler und Dritte
- Nachgelagerte Auswirkungen, einschließlich Offenlegungen von Entitäten, die Foundation-Modelle zum Download oder zur Nutzung bereitstellen.
Dritte Risikobewertungen
Der Bericht betont, dass Transparenz „oft unzureichend ist und zusätzliche Verifikationsmechanismen“ für die Rechenschaftspflicht erfordert. Dritte Risikobewertungen sind „essentiell“, um Anreize für Entwickler zu schaffen, die Sicherheit ihrer Modelle zu erhöhen. Der Bericht fordert die politischen Entscheidungsträger auf, in Betracht zu ziehen, sichere Häfen einzurichten, die die öffentliche Sicherheitsforschung entschädigen und „Routing-Mechanismen“ einführen, um identifizierte Schwachstellen schnell an Entwickler und betroffene Parteien zu kommunizieren.
Whistleblower-Schutz
Zusätzlich bewertet der Bericht die Notwendigkeit von Whistleblower-Schutzmaßnahmen für Mitarbeiter und Auftragnehmer von Entwicklern von Foundation-Modellen. Die politischen Entscheidungsträger sollten „Schutzmaßnahmen in Betracht ziehen, die ein breiteres Spektrum von Aktivitäten abdecken“, wie etwa Versäumnisse bei der Einhaltung der KI-Sicherheitsrichtlinien eines Unternehmens, selbst wenn das gemeldete Verhalten gegen keine bestehenden Gesetze verstößt.
Berichtspflichten über negative Ereignisse
Der Bericht kommt zu dem Schluss, dass Berichtssysteme über negative Ereignisse, d.h. proaktive Überwachungssysteme, die Informationen über Ereignisse oder Vorfälle von vorgeschriebenen oder freiwilligen Meldenden sammeln, ein „kritischer erster Schritt“ bei der Bewertung der Kosten und Nutzen der KI-Regulierung sind. Die empfohlenen Berichtssysteme für Foundation-Modelle sollten:
- Berichte an Behörden bereitstellen, die über relevante Befugnisse und Fachkenntnisse verfügen, um identifizierte Schäden zu adressieren, mit der Möglichkeit, „anonymisierte Erkenntnisse aus Berichten mit anderen Branchenakteuren zu teilen“;
- „Anfänglich enge Kriterien für die Meldung negativer Ereignisse verwenden, die sich auf einen klar definierten Satz von Schäden konzentrieren“, der im Laufe der Zeit überarbeitet werden kann;
- „Einen hybriden Ansatz“ annehmen, der verpflichtende Berichtspflichten für kritische „Teile des KI-Stacks“ mit freiwilligen Meldungen von nachgelagerten Nutzern kombiniert.
Schwellenwerte für die Regulierung von Foundation-Modellen
Abschließend bewertet der Bericht verschiedene Optionen zur Definition von Schwellenwerten, die Foundation-Modellanforderungen auslösen würden, einschließlich „Entwickler-spezifischer“ Schwellenwerte (z.B. die Mitarbeiterzahl eines Entwicklers), „Kosten-spezifischer“ Schwellenwerte (z.B. computergestützte Kosten des Modelltrainings), „Modell-spezifischer“ Schwellenwerte basierend auf der Leistung des Modells bei wichtigen Benchmarks und „Wirkungs-spezifischer“ Schwellenwerte basierend auf der Anzahl der kommerziellen Nutzer des Modells. Der Bericht kommt zu dem Schluss, dass „Computerschwellenwerte“, wie die Schwelle des EU-KI-Gesetzes von 1025 Gleitkommaoperationen pro Sekunde (FLOPS) für das Modelltraining, „derzeit die attraktivsten kosten-spezifischen Schwellenwerte sind“, die in Kombination mit anderen Metriken verwendet werden sollten.
Der Bericht warnt jedoch ausdrücklich vor der Verwendung von üblichen entwicklerspezifischen Metriken, wie der Mitarbeiterzahl, die „die Besonderheiten der KI-Branche und die damit verbundenen Technologien nicht berücksichtigen“.
Der Bericht und der laufende öffentliche Kommentierungsprozess werden die Gesetzgeber informieren, während sie im Laufe der Legislaturperiode 2025 über KI-Gesetzgebung nachdenken, einschließlich eines Whistleblower-Gesetzes für Foundation-Modelle, das letzten Monat von Senator Wiener eingeführt wurde. Auch Gesetzgeber in Colorado, Illinois, Massachusetts, New York, Rhode Island und Vermont ziehen Gesetze für Foundation-Modelle in Betracht.
Die New York Responsible AI Safety & Education (RAISE) Act würde beispielsweise Transparenz-, Offenlegungs-, Dokumentations- und Drittprüfungsanforderungen für bestimmte Entwickler von KI-Modellen auferlegen, die ihre Compute- und Kosten-Schwellenwerte erfüllen.
Die Arbeitsgruppe sucht über ihre Webseite nach öffentlichem Input zu dem Bericht, wobei die Antworten bis zum 8. April 2025 fällig sind. Die endgültige Version des Berichts wird voraussichtlich bis Juni 2025 veröffentlicht, bevor die kalifornische Legislative im September adjourniert.