Regulierung von KI: Bericht der kalifornischen Arbeitsgruppe zu Grundmodellen

Bericht der California Frontier AI Arbeitsgruppe über die Regulierung von Foundation-Modellen

Am 18. März veröffentlichte die Joint California Policy Working Group on AI Frontier Models (die „Arbeitsgruppe“) ihren Entwurf eines Berichts zur Regulierung von Foundation-Modellen. Ziel ist es, eine „evidenzbasierte Grundlage für politische Entscheidungen im Bereich KI“ in Kalifornien zu bieten, die sicherstellt, dass diese leistungsstarken Technologien der Gesellschaft global zugutekommen und gleichzeitig aufkommende Risiken angemessen verwaltet werden.

Die Arbeitsgruppe wurde im September 2024 von Gouverneur Gavin Newsom (D) ins Leben gerufen, nachdem er das Gesetz zur Sicherheit und zum Schutz von Innovationen für Frontier-AI-Modelle (SB 1047) von Senat Scott Wiener (D-San Francisco) vetosiert hatte. Die Arbeitsgruppe baut auf Kaliforniens Partnerschaft mit der Stanford University und der University of California, Berkeley, auf, die durch den Exekutivbefehl von Gouverneur Newsom von 2023 zur generativen KI etabliert wurde.

Wichtige Erkenntnisse des Berichts

Der Bericht stellt fest, dass die „Fähigkeiten von Foundation-Modellen sich seit dem Veto von SB 1047 schnell verbessert haben“ und dass Kalifornien eine „einmalige Gelegenheit“ hat, die KI-Governance zu gestalten, die möglicherweise nicht unbegrenzt offen bleibt. Der Bericht bewertet Transparenz, dritte Risikobewertungen und Berichtspflichten über negative Ereignisse als Schlüsselfaktoren für die Regulierung von Foundation-Modellen.

Transparenzanforderungen

Der Bericht kommt zu dem Schluss, dass Transparenzanforderungen für Foundation-Modelle eine „notwendige Grundlage“ für die KI-Regulierung sind. Die politischen Entscheidungsträger sollten „öffentlich zugängliche Transparenz priorisieren, um die Rechenschaftspflicht am besten voranzutreiben“. Konkret empfiehlt der Bericht Transparenzanforderungen, die sich auf fünf Kategorien von Informationen über Foundation-Modelle konzentrieren:

  1. Akquisition von Trainingsdaten
  2. Sicherheitspraktiken der Entwickler
  3. Sicherheitspraktiken der Entwickler
  4. Vorab-Tests durch Entwickler und Dritte
  5. Nachgelagerte Auswirkungen, einschließlich Offenlegungen von Entitäten, die Foundation-Modelle zum Download oder zur Nutzung bereitstellen.

Dritte Risikobewertungen

Der Bericht betont, dass Transparenz „oft unzureichend ist und zusätzliche Verifikationsmechanismen“ für die Rechenschaftspflicht erfordert. Dritte Risikobewertungen sind „essentiell“, um Anreize für Entwickler zu schaffen, die Sicherheit ihrer Modelle zu erhöhen. Der Bericht fordert die politischen Entscheidungsträger auf, in Betracht zu ziehen, sichere Häfen einzurichten, die die öffentliche Sicherheitsforschung entschädigen und „Routing-Mechanismen“ einführen, um identifizierte Schwachstellen schnell an Entwickler und betroffene Parteien zu kommunizieren.

Whistleblower-Schutz

Zusätzlich bewertet der Bericht die Notwendigkeit von Whistleblower-Schutzmaßnahmen für Mitarbeiter und Auftragnehmer von Entwicklern von Foundation-Modellen. Die politischen Entscheidungsträger sollten „Schutzmaßnahmen in Betracht ziehen, die ein breiteres Spektrum von Aktivitäten abdecken“, wie etwa Versäumnisse bei der Einhaltung der KI-Sicherheitsrichtlinien eines Unternehmens, selbst wenn das gemeldete Verhalten gegen keine bestehenden Gesetze verstößt.

Berichtspflichten über negative Ereignisse

Der Bericht kommt zu dem Schluss, dass Berichtssysteme über negative Ereignisse, d.h. proaktive Überwachungssysteme, die Informationen über Ereignisse oder Vorfälle von vorgeschriebenen oder freiwilligen Meldenden sammeln, ein „kritischer erster Schritt“ bei der Bewertung der Kosten und Nutzen der KI-Regulierung sind. Die empfohlenen Berichtssysteme für Foundation-Modelle sollten:

  1. Berichte an Behörden bereitstellen, die über relevante Befugnisse und Fachkenntnisse verfügen, um identifizierte Schäden zu adressieren, mit der Möglichkeit, „anonymisierte Erkenntnisse aus Berichten mit anderen Branchenakteuren zu teilen“;
  2. „Anfänglich enge Kriterien für die Meldung negativer Ereignisse verwenden, die sich auf einen klar definierten Satz von Schäden konzentrieren“, der im Laufe der Zeit überarbeitet werden kann;
  3. „Einen hybriden Ansatz“ annehmen, der verpflichtende Berichtspflichten für kritische „Teile des KI-Stacks“ mit freiwilligen Meldungen von nachgelagerten Nutzern kombiniert.

Schwellenwerte für die Regulierung von Foundation-Modellen

Abschließend bewertet der Bericht verschiedene Optionen zur Definition von Schwellenwerten, die Foundation-Modellanforderungen auslösen würden, einschließlich „Entwickler-spezifischer“ Schwellenwerte (z.B. die Mitarbeiterzahl eines Entwicklers), „Kosten-spezifischer“ Schwellenwerte (z.B. computergestützte Kosten des Modelltrainings), „Modell-spezifischer“ Schwellenwerte basierend auf der Leistung des Modells bei wichtigen Benchmarks und „Wirkungs-spezifischer“ Schwellenwerte basierend auf der Anzahl der kommerziellen Nutzer des Modells. Der Bericht kommt zu dem Schluss, dass „Computerschwellenwerte“, wie die Schwelle des EU-KI-Gesetzes von 1025 Gleitkommaoperationen pro Sekunde (FLOPS) für das Modelltraining, „derzeit die attraktivsten kosten-spezifischen Schwellenwerte sind“, die in Kombination mit anderen Metriken verwendet werden sollten.

Der Bericht warnt jedoch ausdrücklich vor der Verwendung von üblichen entwicklerspezifischen Metriken, wie der Mitarbeiterzahl, die „die Besonderheiten der KI-Branche und die damit verbundenen Technologien nicht berücksichtigen“.

Der Bericht und der laufende öffentliche Kommentierungsprozess werden die Gesetzgeber informieren, während sie im Laufe der Legislaturperiode 2025 über KI-Gesetzgebung nachdenken, einschließlich eines Whistleblower-Gesetzes für Foundation-Modelle, das letzten Monat von Senator Wiener eingeführt wurde. Auch Gesetzgeber in Colorado, Illinois, Massachusetts, New York, Rhode Island und Vermont ziehen Gesetze für Foundation-Modelle in Betracht.

Die New York Responsible AI Safety & Education (RAISE) Act würde beispielsweise Transparenz-, Offenlegungs-, Dokumentations- und Drittprüfungsanforderungen für bestimmte Entwickler von KI-Modellen auferlegen, die ihre Compute- und Kosten-Schwellenwerte erfüllen.

Die Arbeitsgruppe sucht über ihre Webseite nach öffentlichem Input zu dem Bericht, wobei die Antworten bis zum 8. April 2025 fällig sind. Die endgültige Version des Berichts wird voraussichtlich bis Juni 2025 veröffentlicht, bevor die kalifornische Legislative im September adjourniert.

More Insights

KI-Governance: Sicherheitsstrategien für die Zukunft

Künstliche Intelligenz (KI) hat einen breiten Einfluss auf Geschäftsbereiche, einschließlich der Cybersicherheit. Eine Studie der Cloud Security Alliance ergab, dass neun von zehn Organisationen...

Gesichtserkennungstechnologie: Regierung unter Beschuss wegen fehlender Regelungen

Die britische Regierung wurde für die Einführung von Gesichtserkennungstechnologie kritisiert, da sie dies ohne ein umfassendes rechtliches Rahmenwerk vorantreibt. Die Ada Lovelace Institute warnt vor...

Boom der Governance-Start-ups im Kampf um die Ehrlichkeit von KI

Die globale AI-Governance-Branche war im letzten Jahr 890 Millionen Dollar wert und wird bis 2029 auf 5,8 Milliarden Dollar anwachsen. Unternehmen stehen unter immensem Druck, vollständige...

10 Jahre Moratorium: Auswirkungen auf staatliche KI-Gesetze in den USA

Der US-Repräsentantenhaus hat ein Haushaltsgesetz verabschiedet, das ein zehnjähriges Moratorium für die Durchsetzung von staatlichen KI-Gesetzen beinhaltet. Tech Policy Press sucht Expertenmeinungen...

Die Rolle der Gerichte in der KI-Regulierung

Die Regulierung von Künstlicher Intelligenz (KI) ist weltweit ungleichmäßig. Während die Europäische Union umfassende Vorschriften erlassen hat, herrscht in den Vereinigten Staaten Widerstand gegen...

Verantwortliches KI-Management: Risiken effektiv angehen

Verantwortungsvolles KI-Management entwickelt sich von einem beeindruckenden Schlagwort zu einer kritischen Geschäftsnötigkeit, insbesondere in der Asien-Pazifik-Region. Während viele Unternehmen...

Rechtsführung in der KI: Dringlicher Handlungsbedarf

In diesem Interview mit Help Net Security erörtert Brooke Johnson, Chief Legal Counsel von Ivanti, die rechtlichen Verantwortlichkeiten in der KI-Governance. Sie betont die Notwendigkeit einer...

KI unter Kontrolle: Gesetzesänderungen und ihre Folgen

Der Gesetzentwurf, der kürzlich vom Repräsentantenhaus verabschiedet wurde, könnte staatliche Gesetze zur Regulierung von Künstlicher Intelligenz (KI) aufheben. Während einige Gesetzgeber besorgt...