Der EU AI Act und seine Auswirkungen auf die USA

Der EU AI Act kommt nach Amerika

Der EU AI Act hat das Potenzial, die Regulierung von Künstlicher Intelligenz (KI) in den USA zu beeinflussen. In den letzten Jahren haben mehr als ein Dutzend US-Bundesstaaten Gesetze in Erwägung gezogen, die dem EU AI Act ähnlich sind und sich auf algorithmische Diskriminierung konzentrieren.

Einführung

Bei einem AI Action Summit in Paris äußerte der Vizepräsident der USA, dass die Europäische Union zu schnell mit präventiven Vorschriften voranschreite. Dies steht im Kontrast zu den Entwicklungen in den USA, wo mehrere Bundesstaaten ähnliche Regelungen einführen.

Über die Gesetze

Die Gesetze, die in verschiedenen Bundesstaaten vorgeschlagen werden, zielen darauf ab, algorithmische Diskriminierung zu verhindern. Dies geschieht durch die Regulierung des Einsatzes von KI in automatisierten Entscheidungsprozessen, die als hochriskant eingestuft werden.

Unternehmen, die KI-Systeme als wesentlichen Faktor bei wichtigen Entscheidungen verwenden, müssen ein Risikomanagement-Plan erstellen und eine algorithmische Auswirkungenseinschätzung vorlegen. Diese Anforderungen variieren jedoch erheblich zwischen den Bundesstaaten.

Das Problem der Definitionen

Ein zentrales Problem dieser Gesetze ist die Definition von Begriffen wie „wesentlicher Faktor“ und „folgenreiche Entscheidung“. Eine breite Auslegung könnte bedeuten, dass Unternehmen, die KI zur Unterstützung von Entscheidungsprozessen verwenden, ebenfalls unter die Regulierung fallen.

Beispiele aus den Bundesstaaten

Der einzige Bundesstaat, in dem ein entsprechendes Gesetz bereits verabschiedet wurde, ist Colorado. Das Gesetz SB 205 wurde im Mai 2024 verabschiedet und sieht vor, dass Unternehmen, die KI-Systeme einsetzen, spezifische Compliance-Vorgaben erfüllen müssen.

Zusätzlich zu Colorado gibt es ähnliche Gesetze in anderen Bundesstaaten, darunter Kalifornien, Connecticut und Illinois, die alle darauf abzielen, algorithmische Diskriminierung zu regulieren.

Herkunft der Gesetze

Die Einführung dieser Gesetze kann sowohl auf kurzfristige als auch auf langfristige Ursachen zurückgeführt werden. Langfristig gibt es seit vielen Jahren Bedenken hinsichtlich algorithmischer Diskriminierung, die zu einem zentralen Thema in der KI-Politik geworden sind.

Die Biden-Administration hat diese Problematik aufgegriffen, was zur Entwicklung von Gesetzen in mehreren Bundesstaaten geführt hat. Die Future of Privacy Forum spielt eine entscheidende Rolle bei der Koordination dieser Gesetze und hat enge Verbindungen zu großen Technologieunternehmen.

Vergleich mit dem EU AI Act

Die algorithmischen Diskriminierungsgesetze in den USA weisen viele Ähnlichkeiten mit dem EU AI Act auf, insbesondere in Bezug auf die Risikobewertung und die erforderlichen Transparenzmaßnahmen für Entwickler.

Beide Regelungen fordern, dass Unternehmen, die KI-Systeme verwenden, umfangreiche Dokumentationen erstellen, um die Einhaltung der Vorschriften nachzuweisen.

Kosten und Nutzen

Die Einführung dieser Gesetze könnte erhebliche Compliance-Kosten für Unternehmen mit sich bringen. Schätzungen zufolge könnten die Kosten durch den EU AI Act bis zu 17% der Ausgaben für KI betragen.

Allerdings gibt es keine ausreichenden Beweise dafür, dass algorithmische Diskriminierung ein so gravierendes Problem darstellt, dass diese Kosten gerechtfertigt wären. Viele Fälle von algorithmischer Diskriminierung werden bereits durch bestehende Gesetze behandelt.

Fazit

Die USA stehen an der Schwelle, eine Version der europäischen KI-Regulierung einzuführen, die erhebliche Auswirkungen auf die Technologiebranche haben könnte. Wenn diese Gesetze verabschiedet werden, könnte die Regulierung von KI in den USA die umfassendste in der Geschichte werden.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...