KI ist neu – die Gesetze, die sie regeln, müssen es nicht sein
Am Montag hat der Gouverneur von Virginia, Glenn Youngkin, Gesetzesentwurf 2094 (High-Risk Artificial Intelligence Developer and Deployer Act) mit einem Veto belegt. Dieser Gesetzesentwurf hätte einen umfassenden rechtlichen Rahmen für KI geschaffen, der Einschränkungen für ihre Entwicklung und Ausdrucksformen hinzugefügt hätte. Hätte das Gesetz in Kraft getreten, wäre es in direktem Konflikt mit dem Ersten Verfassungszusatz geraten.
Dieses Veto ist das jüngste in einer Reihe von Rückschlägen für eine Bewegung in vielen Bundesstaaten, die darauf abzielt, die Entwicklung von KI zu regulieren. Diese Bewegung begann mit einer Arbeitsgruppe, die im letzten Jahr gegründet wurde. Im Februar zerbrach diese Gruppe und zeigte damit die Unruhen in einer einmal aufstrebenden regulatorischen Bewegung.
Obwohl bestehende Gesetze möglicherweise nicht immer klug angewendet werden, lässt sich ein Trend weg von hastigen Gesetzgebungen und hin zu einer sorgfältigen Überlegung beobachten, was für die miteinander verbundene Zukunft von KI und Meinungsfreiheit positiv ist.
Die regulatorische Landschaft
KI verspricht eine neue Ära der Wissensgenerierung und Ausdrucksformen, und diese Entwicklungen finden an einem kritischen Punkt statt, da die KI-Entwicklung weiterhin voranschreitet. Unternehmen aktualisieren ihre Modelle in einem rasanten Tempo, wie zum Beispiel mit dem neuen Bildgenerierungstool von OpenAI.
Das öffentliche und politische Interesse, angeheizt durch Faszination und Angst, könnte in den nächsten zwei Jahren weiter zunehmen – eine Zeitspanne, in der KI, die sich noch in der Anfangsphase befindet, akut Bedrohungen durch neue Vorschriften ausgesetzt ist. Ein Forschungsstipendiat des Mercatus Center, Dean W. Ball, hat die Hypothese aufgestellt, dass 2025 und 2026 die letzten beiden Jahre sein könnten, um Gesetze zu erlassen, die in Kraft treten, bevor KI-Systeme mit „qualitativ transformierenden Fähigkeiten“ veröffentlicht werden.
Mit der schnellen Entwicklung und dem Einsatz von KI im Hintergrund haben die Bundesstaaten hastig neue rechtliche Rahmenbedingungen vorgeschlagen, in der Hoffnung, den bevorstehenden Aufschwung der KI mit den politischen Zielen der Bundesstaaten in Einklang zu bringen. Im letzten Jahr wurden rund 700 Gesetzentwürfe im Zusammenhang mit KI eingeführt, die alles von „Deepfakes“ bis zur Verwendung von KI in Wahlen abdeckten. In diesem Jahr nähert sich diese Zahl bereits 900+.
Das TRAIGA (Texas Responsible Artificial Intelligence Governance Act) aus Texas ist das hochkarätigste Beispiel für die Welle restriktiver KI-Gesetze in diesem Jahr. Dieses Gesetz würde die Entwickler und Betreiber von KI-Systemen haftbar machen, die das Risiko der „algorithmischen Diskriminierung“ einführen könnten.
Ein bescheidenerer Ansatz
Ein Ansatz, der sich von dem in Colorado und Texas unterscheidet, scheint in Connecticut Fuß zu fassen. Gouverneur Ned Lamont signalisierte, dass er den Connecticut Senate Bill 2, ein ähnliches Gesetz wie in Colorado, mit einem Veto belegen würde. Er bemerkte, dass bestehende Gesetze zur Diskriminierung bereits auf die Nutzung von KI in relevanten Bereichen wie Wohnen, Beschäftigung und Banken anwendbar sein könnten.
Versuche, alle theoretischen Probleme der KI zu lösen, bevor die Konturen ihrer Probleme klar werden, sind nicht nur unpraktisch, sondern riskieren auch, Innovation und Ausdruck in einer Weise zu ersticken, die schwer umkehrbar sein könnte.
Die Anwendung bestehender Gesetze muss sich natürlich an den umfassenden Schutz des Ersten Verfassungszusatzes halten. Ein Kernprinzip bleibt: Bundesstaaten, die die Bremse ziehen und über die bereits verfügbaren Werkzeuge nachdenken, geben KI-Entwicklern und -Nutzern den Vorteil, innerhalb etablierter, vorhersehbarer rechtlicher Rahmenbedingungen zu arbeiten.
Wenn es wahrgenommene Lücken in bestehenden Gesetzen gibt, während sich KI und ihre Anwendungen weiterentwickeln, könnten die Gesetzgeber versuchen, gezielte Korrekturen vorzunehmen. Letztes Jahr verabschiedete Utah ein Gesetz, das klarstellt, dass generative KI nicht als Verteidigung gegen Verstöße gegen das staatliche Deliktsrecht dienen kann.
Statt neue Haftungsbedingungen einzuführen, klärt diese Bestimmung die Verantwortlichkeit unter bestehenden Gesetzen.
Der weiseste Kurs könnte Geduld sein. Lassen Sie bestehende Gesetze ihre Arbeit tun und vermeiden Sie vorzeitige Einschränkungen. Wie müde Eltern sollten die Gesetzgeber durchatmen – und vielleicht einen Urlaub machen – während sie der KI Zeit geben, ein wenig erwachsen zu werden.