KI-Gesetze: Ein Aufruf zur Besonnenheit

KI ist neu – die Gesetze, die sie regeln, müssen es nicht sein

Am Montag hat der Gouverneur von Virginia, Glenn Youngkin, Gesetzesentwurf 2094 (High-Risk Artificial Intelligence Developer and Deployer Act) mit einem Veto belegt. Dieser Gesetzesentwurf hätte einen umfassenden rechtlichen Rahmen für KI geschaffen, der Einschränkungen für ihre Entwicklung und Ausdrucksformen hinzugefügt hätte. Hätte das Gesetz in Kraft getreten, wäre es in direktem Konflikt mit dem Ersten Verfassungszusatz geraten.

Dieses Veto ist das jüngste in einer Reihe von Rückschlägen für eine Bewegung in vielen Bundesstaaten, die darauf abzielt, die Entwicklung von KI zu regulieren. Diese Bewegung begann mit einer Arbeitsgruppe, die im letzten Jahr gegründet wurde. Im Februar zerbrach diese Gruppe und zeigte damit die Unruhen in einer einmal aufstrebenden regulatorischen Bewegung.

Obwohl bestehende Gesetze möglicherweise nicht immer klug angewendet werden, lässt sich ein Trend weg von hastigen Gesetzgebungen und hin zu einer sorgfältigen Überlegung beobachten, was für die miteinander verbundene Zukunft von KI und Meinungsfreiheit positiv ist.

Die regulatorische Landschaft

KI verspricht eine neue Ära der Wissensgenerierung und Ausdrucksformen, und diese Entwicklungen finden an einem kritischen Punkt statt, da die KI-Entwicklung weiterhin voranschreitet. Unternehmen aktualisieren ihre Modelle in einem rasanten Tempo, wie zum Beispiel mit dem neuen Bildgenerierungstool von OpenAI.

Das öffentliche und politische Interesse, angeheizt durch Faszination und Angst, könnte in den nächsten zwei Jahren weiter zunehmen – eine Zeitspanne, in der KI, die sich noch in der Anfangsphase befindet, akut Bedrohungen durch neue Vorschriften ausgesetzt ist. Ein Forschungsstipendiat des Mercatus Center, Dean W. Ball, hat die Hypothese aufgestellt, dass 2025 und 2026 die letzten beiden Jahre sein könnten, um Gesetze zu erlassen, die in Kraft treten, bevor KI-Systeme mit „qualitativ transformierenden Fähigkeiten“ veröffentlicht werden.

Mit der schnellen Entwicklung und dem Einsatz von KI im Hintergrund haben die Bundesstaaten hastig neue rechtliche Rahmenbedingungen vorgeschlagen, in der Hoffnung, den bevorstehenden Aufschwung der KI mit den politischen Zielen der Bundesstaaten in Einklang zu bringen. Im letzten Jahr wurden rund 700 Gesetzentwürfe im Zusammenhang mit KI eingeführt, die alles von „Deepfakes“ bis zur Verwendung von KI in Wahlen abdeckten. In diesem Jahr nähert sich diese Zahl bereits 900+.

Das TRAIGA (Texas Responsible Artificial Intelligence Governance Act) aus Texas ist das hochkarätigste Beispiel für die Welle restriktiver KI-Gesetze in diesem Jahr. Dieses Gesetz würde die Entwickler und Betreiber von KI-Systemen haftbar machen, die das Risiko der „algorithmischen Diskriminierung“ einführen könnten.

Ein bescheidenerer Ansatz

Ein Ansatz, der sich von dem in Colorado und Texas unterscheidet, scheint in Connecticut Fuß zu fassen. Gouverneur Ned Lamont signalisierte, dass er den Connecticut Senate Bill 2, ein ähnliches Gesetz wie in Colorado, mit einem Veto belegen würde. Er bemerkte, dass bestehende Gesetze zur Diskriminierung bereits auf die Nutzung von KI in relevanten Bereichen wie Wohnen, Beschäftigung und Banken anwendbar sein könnten.

Versuche, alle theoretischen Probleme der KI zu lösen, bevor die Konturen ihrer Probleme klar werden, sind nicht nur unpraktisch, sondern riskieren auch, Innovation und Ausdruck in einer Weise zu ersticken, die schwer umkehrbar sein könnte.

Die Anwendung bestehender Gesetze muss sich natürlich an den umfassenden Schutz des Ersten Verfassungszusatzes halten. Ein Kernprinzip bleibt: Bundesstaaten, die die Bremse ziehen und über die bereits verfügbaren Werkzeuge nachdenken, geben KI-Entwicklern und -Nutzern den Vorteil, innerhalb etablierter, vorhersehbarer rechtlicher Rahmenbedingungen zu arbeiten.

Wenn es wahrgenommene Lücken in bestehenden Gesetzen gibt, während sich KI und ihre Anwendungen weiterentwickeln, könnten die Gesetzgeber versuchen, gezielte Korrekturen vorzunehmen. Letztes Jahr verabschiedete Utah ein Gesetz, das klarstellt, dass generative KI nicht als Verteidigung gegen Verstöße gegen das staatliche Deliktsrecht dienen kann.

Statt neue Haftungsbedingungen einzuführen, klärt diese Bestimmung die Verantwortlichkeit unter bestehenden Gesetzen.

Der weiseste Kurs könnte Geduld sein. Lassen Sie bestehende Gesetze ihre Arbeit tun und vermeiden Sie vorzeitige Einschränkungen. Wie müde Eltern sollten die Gesetzgeber durchatmen – und vielleicht einen Urlaub machen – während sie der KI Zeit geben, ein wenig erwachsen zu werden.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...