Mit dem RAISE-Gesetz stimmt New York mit Kalifornien über Gesetze zu Frontier-KI überein
Inmitten einer nationalen Debatte über KI-Gesetze hat New York als zweiter Bundesstaat neue Anforderungen an fortschrittliche KI-Modelle und die Unternehmen, die sie entwickeln, eingeführt. Anstatt jedoch zu einem Flickenteppich von Landesgesetzen beizutragen, die von algorithmischer Diskriminierung bis hin zu Kindersicherheit reichen, verfolgt das Responsible AI Safety and Education (RAISE)-Gesetz einen anderen Weg: Es harmonisiert sich direkt mit bestehenden Regeln.
Das RAISE-Gesetz, das von einem Abgeordneten und einem Senator in New York initiiert wurde, übernimmt das Paradigma „vertrauen, aber überprüfen“, das im kalifornischen Gesetz SB-53 festgelegt ist, das im September als erstes US-Gesetz für Frontier-KI in Kraft trat. Beide Gesetze schaffen einen Kern von Transparenzanforderungen, die die Entwickler dazu verpflichten, Risiko-Rahmenwerke für Frontier-KI zu veröffentlichen und Sicherheitsvorfälle den staatlichen Behörden zu melden.
Aufbau auf SB-53
Das RAISE-Gesetz, das am 1. Januar 2027 in Kraft tritt, basiert stark auf dem „vertrauen, aber überprüfen“-Rahmen von SB-53; in vielen Fällen wird der Text des kalifornischen Gesetzes direkt übernommen. Die meisten der legislativen Feststellungen, die die Ziele des Gesetzes umreißen, sind identisch. RAISE übernimmt viele der Schlüsseldefinitionen von SB-53, einschließlich solcher für katastrophale Risiken, kritische Sicherheitsvorfälle und Basismodell. Beide Gesetze wenden ihre strengsten Anforderungen auf KI-Modelle an, die auf mehr als 10^26 FLOPS trainiert sind, und auf Unternehmen mit einem Bruttoumsatz von über 500 Millionen im Vorjahr.
Im Kern beider Gesetze steht ein identischer Satz von Transparenzanforderungen für die Entwicklung von Frontier-KI. Wie SB-53 verlangt RAISE von Unternehmen, ihre Ansätze zur Sicherheitstestung, Risikominderung, Vorfallreaktion und Cybersecurity-Kontrollen zu veröffentlichen. Unternehmen können ihre Methoden und Standards wählen, müssen jedoch die Verpflichtungen einhalten, die sie eingegangen sind. Sie müssen auch schwere Schäden, die durch KI verursacht werden, melden – insbesondere solche, die mit Tod, Körperverletzung oder erheblichen wirtschaftlichen Schäden verbunden sind, sowie betrügerisches Modellverhalten, das katastrophale Risiken erheblich erhöht.
Herausforderungen und Fragen
Die größte Frage, die durch das neue Gesetz aufgeworfen wird, ist, ob es von einem föderalen Versuch überholt wird, die staatliche Regulierung von KI zu ersetzen. Es ist unklar, ob ein solcher föderaler Regelungsansatz den Bestimmungen von SB-53 und dem RAISE-Gesetz entsprechen oder eine andere, möglicherweise laschere Herangehensweise verfolgen würde. Es wurden mehrere Versuche unternommen, staatliche KI-Regulierungen zu verhindern, haben jedoch keinen Erfolg gehabt.
Obwohl der Weg der Bundesregierung zu einem einheitlichen Rahmen unklar bleibt, scheinen die Bundesstaaten sich auf einen anfänglichen Konsens über die Politik zu Frontier-KI zuzubewegen. Gouverneure beider Parteien haben den Wunsch geäußert, KI zu regulieren, und es wurden Transparenzfokussierte Gesetze in anderen Bundesstaaten eingeführt. Bisher scheint eine Explosion staatlicher Gesetze über KI, die die Entwicklung in den USA behindern könnte, weitgehend ausgeblieben zu sein.
Fazit
Das RAISE-Gesetz und SB-53 stellen eine bedeutende Entwicklung in der Regulierung von KI dar, die sowohl Transparenz als auch Verantwortung fördern soll. Wie diese neuen Gesetze jedoch tatsächlich durchgesetzt werden und ob sie die beabsichtigte Transparenz und Verantwortlichkeit schaffen, bleibt abzuwarten.