Kalifornien verabschiedet Gesetz zur Regulierung führender KI-Unternehmen

Kalifornisches Gesetz zur Regulierung führender KI-Unternehmen unterzeichnet

Am Montag unterzeichnete Gouverneur Gavin Newsom das Gesetz über die Transparenz in der Frontier-Künstlichen Intelligenz, auch bekannt als SB 53. Dieses Gesetz ist das erste seiner Art in den Vereinigten Staaten und bringt neue, spezifische Regulierungen für die führenden Akteure der KI-Industrie mit sich. Es fordert von diesen Unternehmen, Transparenzanforderungen zu erfüllen und Vorfälle im Zusammenhang mit der Sicherheit von KI zu melden.

Obwohl mehrere Bundesstaaten in letzter Zeit Gesetze zur Regulierung bestimmter Aspekte von KI verabschiedet haben, legt SB 53 ausdrücklich den Fokus auf die Sicherheit von hochentwickelten und leistungsstarken KI-Modellen.

Gouverneur Newsoms Aussage

In einer Stellungnahme sagte Newsom: „Kalifornien hat bewiesen, dass wir Regulierungen schaffen können, um unsere Gemeinschaften zu schützen, während wir gleichzeitig sicherstellen, dass die wachsende KI-Industrie weiterhin gedeihen kann. Dieses Gesetz findet die richtige Balance.“

Das Gesetz könnte weltweite Auswirkungen haben, da 32 der 50 weltweit führenden KI-Unternehmen ihren Sitz in Kalifornien haben. In einer Unterzeichnungsnachricht an den Senat des Bundesstaates schrieb Newsom, dass Kaliforniens „Status als globaler Technologieführer uns eine einzigartige Gelegenheit bietet, einen Plan für gut ausgewogene KI-Politik über unsere Grenzen hinaus bereitzustellen – insbesondere in Abwesenheit eines umfassenden föderalen KI-Politikrahmens.“

Transparenz- und Meldepflichten

Das Gesetz verpflichtet führende KI-Unternehmen, öffentliche Dokumente zu veröffentlichen, in denen sie darlegen, wie sie die besten Praktiken zur Schaffung sicherer KI-Systeme einhalten. Es schafft einen Weg für Unternehmen, schwere KI-bezogene Vorfälle an das kalifornische Büro für Notfallmanagement zu melden, während es die Schutzmaßnahmen für Whistleblower, die Bedenken hinsichtlich Gesundheits- und Sicherheitsrisiken äußern, stärkt.

Das Gesetz sieht zivilrechtliche Strafen für die Nichteinhaltung vor, die vom Büro des Generalstaatsanwalts des Bundesstaates durchgesetzt werden.

Reaktionen auf das Gesetz

Senator Scott Wiener, der das Gesetz einbrachte, erklärte: „Mit einer so transformierenden Technologie wie KI haben wir die Verantwortung, diese Innovation zu unterstützen und gleichzeitig gesunde Sicherheitsvorkehrungen zu treffen, um Risiken zu verstehen und zu reduzieren.“

SB 53 wurde genau ein Jahr nach der Ablehnung eines ähnlichen Gesetzes durch Newsom verabschiedet. Während SB 1047 mehr auf Haftungsfragen abzielte, liegt der Schwerpunkt von SB 53 auf Transparenz.

Die Verabschiedung von SB 53 folgt kürzlichen Ankündigungen über intensivierte Lobbyarbeit von großen Technologieunternehmen, um die Verbreitung und Auswirkungen von KI-Regulierungen zu begrenzen.

Unterstützung und Kritik

Während mehrere Unternehmen ihre Unterstützung für das Gesetz ausdrückten, machten sie deutlich, dass sie eine föderale Gesetzgebung bevorzugen, um inkonsistente Regelungen von Bundesstaat zu Bundesstaat zu vermeiden. Unternehmen wie Anthropic haben das Gesetz unterstützt und betont, dass es bedeutende Transparenzanforderungen für führende KI-Unternehmen ohne technische Vorgaben schafft.

In einer Stellungnahme zur Verabschiedung von SB 53 erklärte ein Sprecher von OpenAI, dass das Gesetz einen kritischen Weg zur Harmonisierung mit der Bundesregierung schafft, was den effektivsten Ansatz zur Sicherheit von KI darstellt.

Föderale Gesetzgebung und internationale Reaktionen

Am Montagmorgen schlugen die Senatoren Josh Hawley und Richard Blumenthal ein föderales Gesetz vor, das führende KI-Entwickler zur Bewertung fortgeschrittener KI-Systeme und zur Sammlung von Daten über die Wahrscheinlichkeit von negativen KI-Vorfällen verpflichtet.

Weltführer rufen zunehmend zur Regulierung von KI auf, angesichts der wachsenden Risiken durch fortschrittliche KI-Systeme. In einer Rede vor der Generalversammlung der Vereinten Nationen sagte Präsident Donald Trump, dass KI „eine der großartigsten Dinge sein könnte, die jemals existiert haben, aber sie kann auch gefährlich sein.“

Der ukrainische Präsident Wolodymyr Selenskyj erklärte, dass die Welt „jetzt durch das zerstörerischste Wettrüsten in der Geschichte der Menschheit lebt, da dies diesmal auch künstliche Intelligenz umfasst.“

More Insights

Zukunft der KI: Kooperation statt Wettbewerb

In der heutigen schnelllebigen Welt verändert die Technologie, insbesondere die künstliche Intelligenz (KI), unsere Gesellschaft grundlegend und stellt unsere Ethik in Frage. Anstatt den Fortschritt...

Pakistans nationale KI-Politik: Ein ehrgeiziger Plan für Innovation und Arbeitsplatzschaffung

Pakistan hat eine ehrgeizige nationale KI-Politik eingeführt, die darauf abzielt, innerhalb von fünf Jahren einen Binnenmarkt für KI im Wert von 2,7 Milliarden USD aufzubauen. Die Politik umfasst...

Ethik im KI-Management: Ein Leitfaden für Unternehmen

Dieser Leitfaden erläutert, warum ethische Governance ein entscheidender Faktor für skalierbare KI ist und was Unternehmen tun können, um langfristige Resilienz zu gewährleisten. Er bietet umsetzbare...

Umfassende KI-Strategien für die Hochschulbildung

Künstliche Intelligenz revolutioniert das Lernen, Lehren und die Abläufe im Hochschulbereich, indem sie personalisierte Lernbegleiter bietet und die institutionelle Resilienz stärkt. Hochschulen...

KI-Governance: Verantwortungsvoll mit globalen Standards ausrichten

Künstliche Intelligenz (KI) prägt zunehmend die Finanzdienstleistungen, die Landwirtschaft, die Bildung und sogar die Regierungsführung in Afrika. Ghana hat im Mai 2025 seine erste nationale...

Die bevorstehende KI-Krise

Die wirtschaftliche Transformation durch KI hat begonnen, wobei Unternehmen wie IBM und Salesforce Mitarbeiter durch KI-Chatbots ersetzt haben. Arbeitnehmer befürchten massenhafte Entlassungen durch...

Ethik der digitalen Arbeit: Verantwortung für die KI-Arbeitskraft

Die digitale Arbeit wird im Arbeitsplatz immer häufiger, jedoch gibt es nur wenige allgemein akzeptierte Regeln für ihre Governance. Die größte Herausforderung für Führungskräfte besteht darin, die...

Anthropic bringt Petri-Tool zur Automatisierung von KI-Sicherheitsaudits

Anthropic hat Petri, ein Open-Source-Tool zur automatisierten Prüfung der Sicherheit von KI, vorgestellt, das große Sprachmodelle (LLMs) auf riskantes Verhalten testet. Das Tool nutzt autonome...

EU KI-Gesetz und DSGVO: Konflikt oder Einklang?

Künstliche Intelligenz ist das allgegenwärtige Schlagwort in der Rechtsbranche, und der EU AI Act steht im Fokus vieler Juristen. In diesem Artikel werden die bedeutendsten Wechselwirkungen zwischen...