Die drohende Blockade von Bundesstaaten-Gesetzen zur KI-Regulierung

Die wahrscheinlichen AI-Gesetze der Bundesstaaten, die durch ein Moratorium blockiert werden könnten

In den kommenden Wochen wird erwartet, dass der US-Senat die Prüfung eines umfassenden Haushaltsgesetzes, das vom Repräsentantenhaus verabschiedet wurde, verstärken wird. Wenn es angenommen wird, könnte es den Bundesstaaten für 10 Jahre die Durchsetzung von Vorschriften zur künstlichen Intelligenz (KI) untersagen.

Hunderte von Landesgesetzgebern und Interessengruppen haben gegen diese Bestimmung protestiert, die die republikanische Mehrheit im Repräsentantenhaus letzten Monat genehmigt hat. Sie wird als Versuch angesehen, ein umständliches Patchwork von KI-Regeln abzubauen, das landesweit entstanden ist und die Innovation behindern könnte. Am Donnerstag haben die Senatsabgeordneten eine Version des Gesetzes veröffentlicht, die das Moratorium beibehalten würde, während die Einschränkungen mit Bundeszuschüssen für Breitbandinternet verbunden werden.

Kritiker argumentieren, dass das bundesweite Moratorium – trotz der Ausnahmen für einige Bundesgesetze – eine breite Palette bestehender Vorschriften, einschließlich Regelungen zur KI im Gesundheitswesen, algorithmischer Diskriminierung, schädlichen Deepfakes und online Kindesmissbrauch, außer Kraft setzen könnte. Dennoch haben Rechtswissenschaftler gewarnt, dass erhebliche Unsicherheiten darüber bestehen, welche spezifischen Gesetze durch das Gesetz möglicherweise präventiv ausgeschlossen werden.

Forschungsbericht zur Risikobewertung von Bundesstaat-Gesetzen

Eine gemeinnützige Organisation, die sich gegen das Moratorium ausspricht, wird am Freitag neue Forschungsergebnisse veröffentlichen, die untersuchen, welche staatlichen KI-Gesetze am stärksten gefährdet sind, wenn das Moratorium angenommen wird. Der Bericht von Americans for Responsible Innovation bewertet die Chancen von über einem Dutzend staatlicher Gesetze, durch ein Moratorium blockiert zu werden, von „wahrscheinlich“ bis „möglich“ und „unwahrscheinlich“.

Die Gesetze, die wahrscheinlich blockiert werden

Das bundesweite Moratorium würde voraussichtlich eine „breite Palette öffentlicher Interessen“ im Bereich der KI-Gesetzgebung der Bundesstaaten erfassen. Dazu gehören Gesetze, die Transparenzanforderungen für KI-Dienste auferlegen oder darauf abzielen, algorithmische Diskriminierung, einschließlich am Arbeitsplatz, zu bekämpfen.

Ein Beispiel ist das Colorado AI Act, das als erstes seiner Art gilt und einen neuen Standard für die angemessene Sorgfalt für Entwickler hochriskanter KI-Systeme einführt, um algorithmische Diskriminierung zu verhindern. Der Bericht besagt, dass es „wahrscheinlich für nichtig erklärt wird“, da es KI-Technologien durch die Etablierung eines zivilrechtlichen Haftungssystems für Entwickler hochriskanter AI-Systeme reguliert.

Ein weiterer Fall sind Gesetze in Utah und Kalifornien, die darauf abzielen, die Transparenz bei der Nutzung von KI-Werkzeugen zu erhöhen. Dazu gehört das Utah Artificial Intelligence Policy Act, das vorschreibt, dass Verbrauchern offengelegt werden muss, wenn sie mit bestimmten generativen KI-Produkten interagieren.

Die Gesetze, die möglicherweise blockiert werden könnten

Bei einigen staatlichen Gesetzen zur KI ist unklar, wie das Moratorium angewendet werden würde. Laut dem Bericht könnte dessen „eindeutige Sprache“ auch Gesetze erfassen, die sich auf soziale Medien, Datenschutzbestimmungen und andere algorithmusbasierte Technologien beziehen.

Das könnte möglicherweise die Datenschutzgesetze in Texas, Maine und Connecticut betreffen. Zum Beispiel könnte das Texas Data Privacy and Security Act die Rechte der Verbraucher zum Opt-out aus Profiling betreffen und somit für nichtig erklärt werden.

Die Gesetze, die voraussichtlich das Moratorium umgehen werden

Laut dem Bericht sind die Gesetze, die am wenigsten wahrscheinlich blockiert werden, solche, die sich darauf konzentrieren, wie die Technologie von den Bundesstaaten integriert wird. Während der Verhandlungen im Repräsentantenhaus wurde eine Bestimmung eingefügt, die besagt, dass nur Vorschriften für KI, die „in den zwischenstaatlichen Handel eingehen“, betroffen sind. Maßnahmen wie das California Generative Artificial Intelligence Accountability Act sind daher „unwahrscheinlich“ betroffen zu sein.

Aktueller Status im Ungewissen

Der Bericht basierte auf der Bestimmung des Moratoriums, wie sie in das Versöhnungspaket aufgenommen wurde, das im letzten Monat vom Repräsentantenhaus verabschiedet wurde. Doch es bleibt abzuwarten, ob die AI-Bestimmung im Senat Bestand haben wird. Der Senatsausschuss für Handel veröffentlichte kürzlich seine Version des Versöhnungspakets, das ein überarbeitetes 10-jähriges Moratorium für staatliche KI-Gesetze enthält.

Der überarbeitete Vorschlag könnte wahrscheinlicher den Byrd-Regel überstehen, die besagt, dass Gesetze, die durch Versöhnung verabschiedet werden, nicht „extraneous“ zum Budget selbst sein dürfen.

Es ist auch unklar, ob es genügend politische Unterstützung dafür im Senat geben wird, wo sowohl Demokraten als auch einige Republikaner bereits gegen die Idee protestiert haben.

More Insights

So klassifizieren Sie Ihr KI-System unter dem EU KI-Gesetz in Minuten

Der EU AI Act wird die Art und Weise verändern, wie KI in Europa entwickelt, bewertet und bereitgestellt wird. Der EU AI Act Risk Classification Wizard hilft Teams dabei, schnell die Risikokategorie...

KI-Rechtsangleichung im Fokus der AIPPI 2025

Die AIPPI wird vom 13. bis 16. September 2025 in Yokohama, Japan, mit mehr als 2.700 Teilnehmern stattfinden, wobei der Schwerpunkt auf der Harmonisierung von KI-Rechtsvorschriften liegt...

KI-gestützte Überwachung: Sicherheit und Privatsphäre im Gleichgewicht

KI-gestützte Überwachung verspricht in einigen Kontexten echte operationale Vorteile, erfordert jedoch eine sorgfältige Governance, um legitime Sicherheitsgewinne zu bewahren, ohne die Bürgerrechte zu...

Verantwortliche KI im Finanzwesen: Von der Theorie zur Praxis

Die globale Diskussion über künstliche Intelligenz hat eine neue Phase erreicht, in der der Fokus darauf liegt, wie diese Werkzeuge verantwortungsvoll genutzt werden können, insbesondere im...

Zertifizierung für vertrauenswürdige KI und eine nachhaltige Zukunft

Zertifizierungen können Vertrauen in KI-Systeme schaffen, indem sie Standards für Zuverlässigkeit und Erklärbarkeit festlegen, was das Vertrauen der Nutzer stärkt. Regulierung wird zu einem...

Vertrauen in erklärbare KI: Ein Blick auf die Unsichtbaren

Erklärbare KI (XAI) ist entscheidend für den Aufbau von Vertrauen, Gewährleistung von Transparenz und Ermöglichung von Verantwortung in sensiblen Bereichen wie Gesundheitswesen und Finanzen. Die EU...

Verantwortungsvolle KI-Workflows für UX-Forschung

Dieser Artikel untersucht, wie KI verantwortungsvoll in den Arbeitsabläufen der UX-Forschung integriert werden kann, um Geschwindigkeit und Effizienz zu steigern, während gleichzeitig die menschliche...