Dieser kalifornische Gesetzentwurf wird Transparenz von KI-Unternehmen verlangen. Aber wird er tatsächlich große Katastrophen verhindern?
Wenn es um KI geht, geht Kalifornien oft als Vorreiter voraus. Der bevölkerungsreichste Bundesstaat der USA ist gleichzeitig das zentrale Zentrum für KI-Innovation weltweit. Mit 32 der 50 größten KI-Unternehmen der Welt hat Kalifornien das Gewicht, um als regulatorischer Vorreiter aufzutreten und den Ton für den Rest des Landes in Bezug auf verschiedene Vorschriften zu setzen.
Nach der dramatischen Niederlage eines vorgeschlagenen bundesweiten Moratoriums zur Regulierung von KI durch die Bundesstaaten im Juli sehen kalifornische Politiker eine begrenzte Gelegenheit, den Rahmen für die KI-Gesetze des Landes zu setzen. In den frühen Morgenstunden des Samstags stimmte die kalifornische Versammlung für den Gesetzentwurf SB 53, der von Entwicklern hochentwickelter KI-Modelle Transparenzberichte verlangt. Dieser Gesetzentwurf ist jetzt an Gouverneur Gavin Newsom zur Unterschrift oder zum Veto weitergeleitet worden.
Was ist SB 53?
SB 53 richtet sich gegen hochentwickelte KI-Modelle, die enorme Datenmengen und Rechenleistung benötigen, wie beispielsweise ChatGPT von OpenAI, Googles Gemini und Anthropics Claude. Der Gesetzentwurf konzentriert sich auf die möglichen „katastrophalen Risiken“ von KI, die unter anderem durch KI-gestützte biologische Waffenschläge oder bösartige Systeme verursacht werden könnten, die kritische Infrastrukturen gefährden.
Die Definition von katastrophalen Risiken ist umstritten, wird aber im Gesetzentwurf als ein „vorhersehbares und erhebliches Risiko“ eines Ereignisses definiert, das mehr als 50 Tote oder über 1 Milliarde Dollar an Schäden verursacht, wobei ein hochentwickeltes KI-Modell eine wesentliche Rolle spielt. Dies ermöglicht eine rechtliche Grundlage, um Unternehmen für ihre Sicherheitsverpflichtungen zur Verantwortung zu ziehen, mit möglichen finanziellen Strafen von bis zu 1 Million Dollar pro Verstoß.
Die Herausforderungen und Kontroversen
Ein einzelner staatlicher Gesetzentwurf zur Förderung von Transparenz wird wahrscheinlich nicht ausreichen, um verheerende Cyberangriffe und KI-gestützte chemische, biologische oder nukleare Bedrohungen zu verhindern. Dennoch stellt SB 53 einen Versuch dar, diese sich schnell entwickelnde Technologie zu regulieren, bevor sie die Aufsicht überholt.
Der Gesetzentwurf verpflichtet KI-Unternehmen, Sicherheitsrahmen zu entwickeln, die detailliert darlegen, wie sie katastrophalen Risiken begegnen. Vor der Bereitstellung ihrer Modelle müssen Unternehmen Sicherheits- und Sicherheitsberichte veröffentlichen und innerhalb von 15 Tagen kritische Sicherheitsvorfälle melden.
Gesellschaftliche und technologische Implikationen
Der Fokus auf katastrophale Risiken wirft jedoch auch Fragen auf. Was genau fällt unter katastrophale Risiken? Während einige Experten sich mit den langfristigen Gefahren befassen, sind andere mehr an den unmittelbaren Risiken interessiert. Dies könnte zu Spannungen zwischen verschiedenen Interessengruppen führen, die unterschiedliche Prioritäten setzen.
Die Diskussion über SB 53 spiegelt die breiteren Meinungsverschiedenheiten darüber wider, ob die Regulierung von KI-Sicherheit auf staatlicher oder bundesstaatlicher Ebene erfolgen sollte. Während einige für einen bundesstaatlich geführten Transparenzansatz plädieren, argumentieren andere, dass die Gesetzgebung auf staatlicher Ebene wichtig ist, um spezifische Gegebenheiten vor Ort zu berücksichtigen.
Wenn Gouverneur Newsom SB 53 in Gesetzesform bringt, könnte dies andere Bundesstaaten dazu inspirieren, ähnliche Regelungen einzuführen und letztendlich eine bundesstaatliche Gesetzgebung zur Sicherheit von KI voranzutreiben.
Insgesamt ist es entscheidend, wie wir über Risiken denken, da dies bestimmt, auf welche Präventionsstrategien wir uns konzentrieren. Die gesetzgeberische Definition von Risiken und der Umgang mit ihnen sind entscheidend für die zukünftige Entwicklung von KI und deren Integration in die Gesellschaft.