Kaliforniens neues AI-Sicherheitsgesetz: Aufsicht und Innovation können koexistieren
Kalifornien hat ein Gesetz zur künstlichen Intelligenz (AI) verabschiedet, bekannt als Senate Bill 53 (SB 53), das letzte Woche von Gouverneur Gavin Newsom unterzeichnet wurde. Diese Regelung stellt einen erstmals im Land geltenden rechtlichen Rahmen dar, der große AI-Unternehmen, die mehr als 500 Millionen Dollar jährlich verdienen, verpflichtet, ihre Sicherheits- und Schutzprotokolle öffentlich offenzulegen.
Regulierung und Innovation müssen sich nicht widersprechen
Adam Billen, Vizepräsident für öffentliche Politik bei der von Jugendlichen geführten Interessengruppe Encode AI, äußerte sich in einem kürzlichen Podcast-Interview mit TechCrunch zu SB 53 und betonte, dass diese Gesetzgebung zeigt, wie staatliche Regulierung technologische Fortschritte ergänzen kann.
Das Gesetz verlangt von diesen Unternehmen, darzulegen, wie sie verhindern, dass ihre Systeme auf katastrophale Weise missbraucht werden, beispielsweise durch Cyberangriffe oder die Schaffung biologischer und chemischer Waffen.
Wichtige Anforderungen und bestehende Praktiken
Billen argumentiert, dass viele der Anforderungen des Gesetzes bereits Praktiken sind, die führende AI-Unternehmen befolgen, einschließlich Modelltests und Transparenzberichten. Dennoch bemerkte er, dass wettbewerbliche Druck einige Unternehmen dazu verleitet hat, ihre Sicherheitsprotokolle zu lockern, was das neue Gesetz ansprechen soll.
„Unternehmen tun bereits das, was wir von ihnen in diesem Gesetz verlangen“, sagte er. „Fangen sie an, in einigen Bereichen nachzulassen? Ja. Und genau deshalb sind Gesetze wie dieses wichtig.“
Bundesstaatliche vs. bundesweite Regulierung von AI
Die Interessengruppe Encode AI, die Billen vertritt, hat zuvor eine Koalition von mehr als 200 Gruppen angeführt, um Vorschläge zur bundesstaatlichen Vorherrschaft abzulehnen, die Staaten daran hindern würden, ihre eigenen AI-Regeln zu erlassen.
Laut Billen bemühen sich US-Senator Ted Cruz und andere politische Entscheidungsträger, die staatliche Autonomie in der AI-Überwachung zu untergraben. Cruz führte das SANDBOX-Gesetz ein, das AI-Unternehmen ermöglichen würde, Anträge auf Ausnahmen von bestimmten bundesstaatlichen Vorschriften zu stellen.
Wettbewerb mit China und die Rolle der Regulierung
Billen räumt ein, dass der Wettbewerb zwischen den USA und China real ist, aber nicht ausreicht, um die Blockierung staatlicher Bemühungen zur AI-Regulierung zu rechtfertigen. Gesetzgeber sollten sich auf bundesstaatliche Exportkontrollen konzentrieren und sicherstellen, dass amerikanische AI-Firmen Zugang zu Computing-Chips haben, die sie benötigen, um global wettbewerbsfähig zu bleiben.
„Wenn Ihnen daran gelegen ist, China im AI-Wettlauf zu schlagen, und das liegt mir am Herzen, dann sollten Sie sich für Exportkontrollen und die Sicherstellung einsetzen, dass amerikanische Unternehmen die Chips haben“, fügte er hinzu, „aber das ist nicht das, wofür die Branche plädiert.“
Fazit: Ein Beispiel für gelebte Demokratie
Billen bezeichnete SB 53 als ein funktionierendes Beispiel für Demokratie in Aktion, eine Zusammenarbeit zwischen Regierung und Industrie, die ein Gesetz hervorgebracht hat, mit dem beide Seiten leben können, auch wenn es nicht perfekt ist.
„Es ist sehr hässlich und chaotisch. Aber dieser Prozess der Demokratie und des Föderalismus bildet die gesamte Grundlage unseres Landes und unseres Wirtschaftssystems. Ich denke, SB 53 ist einer der besten Beweise dafür, dass das weiterhin funktionieren kann“, schloss er.