Risiken der KI-Regulierung: Ansatz der USA, der EU und dazwischen

Risiken im Zusammenhang mit KI mindern: Sanfter Ansatz, harter Ansatz oder etwas dazwischen?

Die Risikobehaftung bei der Entwicklung von KI resultiert daraus, dass moderne KI-Tools ethische Grenzen überschreiten, während die bestehenden rechtlichen Rahmenbedingungen, die nicht für sie geschaffen wurden, nicht ausreichen. Die Art und Weise, wie Regulierungsbehörden in Anbetracht dessen vorgehen, variiert jedoch stark zwischen verschiedenen Ländern und Regionen.

Der kürzlich stattgefundene AI Action Summit in Paris verdeutlichte diese regulatorischen Unterschiede. Besonders die Schlussfolgerung des Gipfels konzentrierte sich auf Fragen der Inklusivität und Offenheit in der KI-Entwicklung, während sie nur allgemein auf Sicherheit und Vertrauenswürdigkeit hinwies, ohne spezifische KI-bezogene Risiken wie Sicherheitsbedrohungen oder existenzielle Gefahren zu betonen. Der Entwurf wurde von 60 Nationen verfasst, jedoch nicht von den USA oder dem Vereinigten Königreich unterzeichnet, was zeigt, wie wenig Konsens in diesem Bereich besteht.

Wie verschiedene Regulierungsbehörden KI-Risiken angehen

Länder und Regionen unterscheiden sich in ihrer Regulierung der KI-Entwicklung und -Einführung. Dennoch befinden sich die meisten irgendwo zwischen den beiden Polen, die von den Vereinigten Staaten an einem Rand und der Europäischen Union am anderen Ende gebildet werden.

Der US-amerikanische Weg: Innovieren zuerst, regulieren später

Die Vereinigten Staaten haben keine bundesstaatlichen Gesetze, die speziell die KI regulieren; stattdessen verlassen sie sich auf freiwillige Richtlinien und marktbasierte Lösungen. Wichtige gesetzliche Regelungen sind das National AI Initiative Act, das darauf abzielt, die bundesstaatliche KI-Forschung zu koordinieren, das Federal Aviation Administration Reauthorization Act und den freiwilligen Risikomanagementrahmen des National Institute of Standards and Technology (NIST).

Im Oktober 2023 erließ Präsident Biden eine Exekutive Anordnung über sichere, geschützte und vertrauenswürdige künstliche Intelligenz, die Standards für kritische Infrastrukturen festlegte, die KI-gestützte Cybersicherheit verbesserte und bundesfinanzierte KI-Projekte regulierte. Dennoch bleibt die regulatorische Landschaft in den USA fluid und unterliegt politischen Veränderungen. Im Januar 2025 hob Präsident Trump Bidens Exekutive Anordnung auf, was auf eine mögliche Neuausrichtung hinweist, die Innovation fördert und von der Regulierung abrückt.

Kritik am US-amerikanischen Ansatz umfasst seine fragmentierte Natur, die zu einem komplexen Netz von Regeln führt, fehlende durchsetzbare Standards und Lücken im Datenschutz. Dennoch könnte sich der laissez-faire Ansatz zur Regulierung von KI in Zukunft ändern. Beispielsweise wurden allein im Jahr 2024 fast 700 Gesetzentwürfe zur KI von den Bundesstaaten eingebracht, und es gab zahlreiche Anhörungen zur KI in der Regierung, KI und geistigem Eigentum usw. Dies zeigt, dass die US-Regierung nicht vor Regulierung zurückschreckt, sondern nach Wegen sucht, diese umzusetzen, ohne die Innovation zu sehr zu beeinträchtigen.

Der EU-Weg: Schadensverhütungsansatz

Die Europäische Union verfolgt einen sehr anderen Ansatz. Im August 2024 führten das Europäische Parlament und der Rat das Gesetz über künstliche Intelligenz (AI Act) ein, das weithin als das umfassendste Stück KI-Regulierung angesehen wird. Der risikobasierte Ansatz des Gesetzes sieht die strengsten Regeln für hochsensible KI-Systeme vor, z.B. für solche, die im Gesundheitswesen und in kritischen Infrastrukturen eingesetzt werden, während Anwendungen mit geringem Risiko nur minimaler Aufsicht unterliegen. Bestimmte Anwendungen, wie von der Regierung betriebene soziale Bewertungssysteme, sind ausdrücklich verboten.

Ähnlich wie die GDPR verpflichtet das Gesetz zur Einhaltung nicht nur innerhalb der Grenzen der EU, sondern auch von jedem Anbieter, Verteiler oder Nutzer von KI-Systemen, die in der EU tätig sind oder KI-Lösungen für ihren Markt anbieten (auch wenn das System außerhalb der EU entwickelt wurde). Dies könnte einige Herausforderungen für US-amerikanische und andere Nicht-EU-Anbieter integrierter Produkte darstellen. Kritiken am Ansatz der EU beinhalten das angebliche Versagen, einen Goldstandard für Menschenrechte zu setzen, übermäßige Komplexität und mangelnde Klarheit sowie sehr strenge technische Anforderungen in einer Zeit, in der die EU ihre Wettbewerbsfähigkeit stärken möchte.

Regulatorischer Mittelweg

Das Vereinigte Königreich hat einen „leichte“ Rahmen angenommen, der irgendwo zwischen der EU und den USA liegt. Der Rahmen basiert auf bestimmten Prinzipien und Kernwerten wie Sicherheit, Fairness und Transparenz. Bestehende Regulierungsbehörden, wie das Information Commissioner’s Office, sind befugt, diese Prinzipien in ihren jeweiligen Bereichen umzusetzen.

Im November 2023 gründete das Vereinigte Königreich das AI Safety Institute (AISI), das aus dem Frontier AI Taskforce hervorgegangen ist. AISI hat die Aufgabe, die Sicherheit fortschrittlicher KI-Modelle zu bewerten, mit großen KI-Entwicklern zusammenzuarbeiten, um Sicherheitstests durchzuführen, und internationale Standards zu fördern. Die britische Regierung hat auch einen AI Opportunities Action Plan veröffentlicht, der Maßnahmen zur Investition in KI-Grundlagen, zur Implementierung der KI-Adoption über die gesamte Wirtschaft hinweg und zur Förderung von „heimischen“ KI-Systemen umreißt. Kritiken am Ansatz des Vereinigten Königreichs zur KI-Regulierung umfassen begrenzte Durchsetzungskapazitäten („alle Augen, keine Hände“), mangelnde Koordination zwischen sektoralen Gesetzen und das Fehlen einer zentralen Regulierungsbehörde.

Weitere große Länder haben ebenfalls ihren eigenen Platz irgendwo im Spektrum zwischen den USA und der EU gefunden. Kanada hat einen risikobasierten Ansatz mit dem vorgeschlagenen Artificial Intelligence and Data Act (AIDA) eingeführt, der darauf abzielt, Innovation mit Sicherheits- und ethischen Überlegungen in Einklang zu bringen. Japan hat einen „menschenzentrierten“ Ansatz zur KI betont und Richtlinien veröffentlicht, um vertrauenswürdige Entwicklungen zu fördern.

In China wird die KI-Regulierung vom Staat streng kontrolliert. Jüngste Gesetze verlangen, dass generative KI-Modelle mit sozialistischen Werten in Einklang stehen und Sicherheitsbewertungen durchlaufen. Australien hingegen hat einen KI-Ethischen Rahmen veröffentlicht und untersucht, wie die Datenschutzgesetze aktualisiert werden können, um auf die sich entwickelnden Herausforderungen zu reagieren.

Internationale Zusammenarbeit etablieren

Da sich die KI-Technologie weiterentwickelt, werden die Unterschiede zwischen den regulatorischen Ansätzen noch deutlicher. Unabhängig davon, welchen individuellen Ansatz bestimmte Länder in Bezug auf Datenschutz, Urheberrechtsschutz und andere Aspekte verfolgen, wird ein kohärenterer globaler Konsens über wichtige KI-bezogene Risiken dringend benötigt. Internationale Zusammenarbeit ist entscheidend, um Baseline-Standards zu etablieren, die sowohl wichtige Risiken ansprechen als auch Innovationen fördern.

Derzeit arbeiten globale Organisationen wie die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), die Vereinten Nationen und mehrere andere daran, internationale Standards und ethische Richtlinien für KI zu etablieren. Der Weg nach vorne erfordert, dass alle Akteure der Branche einen gemeinsamen Nenner finden. Und wenn wir berücksichtigen, dass die Innovation mit Lichtgeschwindigkeit voranschreitet, ist die Zeit zu diskutieren und zuzustimmen jetzt.

More Insights

Vertrauen und Risiko im Zeitalter der KI

Für Vermarkter verspricht KI einen Sprung in der Produktivität – aber nur, wenn sie durch eine klare Strategie und menschliche Aufsicht geleitet wird. Die Frage ist nicht, ob man KI nutzen sollte...

Cloud Governance für die KI-Zukunft

In der heutigen Zeit, in der KI-Innovationen sprießen, wird oft übersehen, dass veraltete Cloud-Governance-Modelle ein kritisches Risiko darstellen. Diese Modelle sind nicht für die Geschwindigkeit...

Leitfaden zur verantwortungsvollen KI-Governance für Unternehmensvorstände

Mit der zunehmenden Bedeutung von Künstlicher Intelligenz (KI) in modernen Unternehmen hat die Confederation of Indian Industry (CII) am Sonntag ein neues Handbuch veröffentlicht, um...

KI-gestützte DevSecOps: Automatisierung, Risiken und Compliance im Zero-Trust-Umfeld

Die rasante Einführung von KI-gestützter Automatisierung im DevSecOps kann sowohl Chancen als auch Herausforderungen mit sich bringen. Während KI die Effizienz steigert, birgt sie auch das Risiko...

Ein Zentrum für KI, Recht und Regulierung in Indien

In einer wegweisenden Entwicklung haben Cyril Amarchand Mangaldas, Cyril Shroff und die O.P. Jindal Global University die Gründung des Cyril Shroff Centre for AI, Law & Regulation am Jindal Global Law...

Darwin präsentiert kostenlosen Policy-Wizard zur Vereinfachung der KI-Governance für Behörden

Darwin hat den AI Policy Wizard eingeführt, ein kostenloses und interaktives Tool, das lokalen Regierungen und öffentlichen Einrichtungen hilft, praktische, konforme und maßgeschneiderte...

Vertrauen in KI durch verantwortungsvolle Governance stärken

Unklare Bedrohungen und unvorhersehbares Verhalten erschweren das globale Vertrauen in KI. Der Aufbau eines gemeinsamen Verständnisses durch anpassbare Governance hilft, konsistente Erwartungen für...

Kultur als Schlüssel zu vertrauenswürdiger KI

In diesem Bericht wird die Bedeutung einer inklusiven KI-Governance hervorgehoben, um sicherzustellen, dass auch übersehene Stimmen im Globalen Süden an der Diskussion und Entscheidungsfindung über...

Die EU AI-Verordnung und die Einhaltung des Urheberrechts

Ein zentrales Problem beim Training generativer KI-Modelle ist die Einhaltung der Urheberrechtsgesetze. Das EU-AI-Gesetz verstärkt die Notwendigkeit der Urheberrechtskonformität, insbesondere in Bezug...