Kaliforniens neue AI-Sicherheitsgesetz: Innovation und Aufsicht im Einklang

Kaliforniens neues AI-Sicherheitsgesetz: Aufsicht und Innovation können koexistieren

Kalifornien hat ein Gesetz zur künstlichen Intelligenz (AI) verabschiedet, bekannt als Senate Bill 53 (SB 53), das letzte Woche von Gouverneur Gavin Newsom unterzeichnet wurde. Diese Regelung stellt einen erstmals im Land geltenden rechtlichen Rahmen dar, der große AI-Unternehmen, die mehr als 500 Millionen Dollar jährlich verdienen, verpflichtet, ihre Sicherheits- und Schutzprotokolle öffentlich offenzulegen.

Regulierung und Innovation müssen sich nicht widersprechen

Adam Billen, Vizepräsident für öffentliche Politik bei der von Jugendlichen geführten Interessengruppe Encode AI, äußerte sich in einem kürzlichen Podcast-Interview mit TechCrunch zu SB 53 und betonte, dass diese Gesetzgebung zeigt, wie staatliche Regulierung technologische Fortschritte ergänzen kann.

Das Gesetz verlangt von diesen Unternehmen, darzulegen, wie sie verhindern, dass ihre Systeme auf katastrophale Weise missbraucht werden, beispielsweise durch Cyberangriffe oder die Schaffung biologischer und chemischer Waffen.

Wichtige Anforderungen und bestehende Praktiken

Billen argumentiert, dass viele der Anforderungen des Gesetzes bereits Praktiken sind, die führende AI-Unternehmen befolgen, einschließlich Modelltests und Transparenzberichten. Dennoch bemerkte er, dass wettbewerbliche Druck einige Unternehmen dazu verleitet hat, ihre Sicherheitsprotokolle zu lockern, was das neue Gesetz ansprechen soll.

„Unternehmen tun bereits das, was wir von ihnen in diesem Gesetz verlangen“, sagte er. „Fangen sie an, in einigen Bereichen nachzulassen? Ja. Und genau deshalb sind Gesetze wie dieses wichtig.“

Bundesstaatliche vs. bundesweite Regulierung von AI

Die Interessengruppe Encode AI, die Billen vertritt, hat zuvor eine Koalition von mehr als 200 Gruppen angeführt, um Vorschläge zur bundesstaatlichen Vorherrschaft abzulehnen, die Staaten daran hindern würden, ihre eigenen AI-Regeln zu erlassen.

Laut Billen bemühen sich US-Senator Ted Cruz und andere politische Entscheidungsträger, die staatliche Autonomie in der AI-Überwachung zu untergraben. Cruz führte das SANDBOX-Gesetz ein, das AI-Unternehmen ermöglichen würde, Anträge auf Ausnahmen von bestimmten bundesstaatlichen Vorschriften zu stellen.

Wettbewerb mit China und die Rolle der Regulierung

Billen räumt ein, dass der Wettbewerb zwischen den USA und China real ist, aber nicht ausreicht, um die Blockierung staatlicher Bemühungen zur AI-Regulierung zu rechtfertigen. Gesetzgeber sollten sich auf bundesstaatliche Exportkontrollen konzentrieren und sicherstellen, dass amerikanische AI-Firmen Zugang zu Computing-Chips haben, die sie benötigen, um global wettbewerbsfähig zu bleiben.

„Wenn Ihnen daran gelegen ist, China im AI-Wettlauf zu schlagen, und das liegt mir am Herzen, dann sollten Sie sich für Exportkontrollen und die Sicherstellung einsetzen, dass amerikanische Unternehmen die Chips haben“, fügte er hinzu, „aber das ist nicht das, wofür die Branche plädiert.“

Fazit: Ein Beispiel für gelebte Demokratie

Billen bezeichnete SB 53 als ein funktionierendes Beispiel für Demokratie in Aktion, eine Zusammenarbeit zwischen Regierung und Industrie, die ein Gesetz hervorgebracht hat, mit dem beide Seiten leben können, auch wenn es nicht perfekt ist.

„Es ist sehr hässlich und chaotisch. Aber dieser Prozess der Demokratie und des Föderalismus bildet die gesamte Grundlage unseres Landes und unseres Wirtschaftssystems. Ich denke, SB 53 ist einer der besten Beweise dafür, dass das weiterhin funktionieren kann“, schloss er.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...