AI-Gesetz: Wegbereiter für globale Regulierung

Der AI Act als Sprungbrett für effektive Regulierung weltweit

In den letzten Wochen hat die Diskussion über Künstliche Intelligenz (KI) auf dem europäischen Kontinent an Intensität gewonnen. Zunächst wurde neue Richtlinien rund um den AI Act, das umfassendste regulatorische Rahmenwerk für KI bis dato, veröffentlicht. Darüber hinaus fand der AI Action Summit statt, der von Frankreich ausgerichtet und von Indien mitgeco-geleitet wurde.

Die Beteiligung war hoch, mit fast 100 Ländern und mehr als 1.000 Vertretern aus dem privaten Sektor und der Zivilgesellschaft. Die Debatten haben wichtige Fragen zur Regulierung aufgeworfen. Teil des Gipfels war die Vorstellung der EU-Initiative InvestAI in Höhe von 200 Milliarden Euro (210 Milliarden US-Dollar), die darauf abzielt, vier KI-Gigafabriken zu finanzieren, um große KI-Modelle auszubilden. Dies ist Teil einer umfassenderen Strategie zur Förderung der offenen und kollaborativen Entwicklung fortschrittlicher KI-Modelle in der EU.

Regulierung vs. Innovation

Der AI Action Summit bot eine Plattform zur Diskussion der Frage: Überwiegt Innovation die Regulierung? Es kann jedoch argumentiert werden, dass die Ignorierung der Risiken, die mit KI verbunden sind, die Innovation nicht beschleunigen wird. Die aktuellen Herausforderungen in Europa hängen mehr mit Marktfragmentierung und einem Mangel an Dynamik im Risikokapital zusammen. Es ist wichtig, dass demokratische Regierungen praktische Maßnahmen ergreifen, anstatt nur leere Versprechungen abzugeben, und sich auf die Risiken für die soziale, politische und wirtschaftliche Stabilität der Welt konzentrieren, die aus dem Missbrauch von KI-Modellen resultieren.

Analysten von GlobalData bemerkten, dass umfassende Regulierung einen Rahmen für Marktstabilität bietet, der zu einer größeren Akzeptanz von KI führen kann, da Organisationen mehr Vertrauen in die Einhaltung haben.

Das vierstufige Risikomodell des AI Act

Der AI Act folgt einem vierstufigen Risikobasierenden System. Die höchste Stufe, das „unacceptable risk“, umfasst KI-Systeme, die als klare Bedrohung für die gesellschaftliche Sicherheit gelten. Acht Praktiken sind in dieser Kategorie enthalten, darunter:

  • Schädliche KI-basierte Manipulation und Täuschung
  • Schädliche KI-basierte Ausnutzung von Schwächen
  • Soziale Bewertung
  • Risikoabschätzung oder -vorhersage von individuellen Straftaten
  • Ungezieltes Scraping des Internets oder CCTV-Material zur Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken
  • Emotionserkennung in Arbeits- und Bildungseinrichtungen
  • Biometrische Kategorisierung zur Ableitung bestimmter geschützter Merkmale
  • Echtzeit-Remote-Biometrische Identifikation für Strafverfolgungszwecke in öffentlich zugänglichen Räumen

Diese Systeme sind seit dem 2. Februar 2025 verboten.

Die nächste Stufe, die „high-risk“ Stufe, umfasst KI-Anwendungsfälle, die ernsthafte Risiken für die Gesundheit, Sicherheit oder grundlegende Rechte darstellen können. Dazu gehören KI-Lösungen, die in Bildungseinrichtungen verwendet werden, um den Zugang zur Bildung und den Verlauf des beruflichen Lebens zu bestimmen, etwa die Notenvergabe.

Regelungen für Hochrisiko-KI-Systeme

Obwohl diese Systeme nicht verboten sind, unterliegen sie rechtlichen Verpflichtungen, bevor sie auf den Markt kommen können. Dazu gehören eine angemessene Risikoabschätzung und -minderung sowie detaillierte Dokumentationen, die alle erforderlichen Informationen bereitstellen.

Dies betrifft auch die Transparenzverpflichtungen für KI-Systeme mit geringerem Risiko. Entwickler und Anbieter müssen sicherstellen, dass Endbenutzer wissen, dass sie mit KI interagieren, insbesondere in praktischen Fällen wie Chatbots und Deepfakes.

Compliance und Sanktionen

Unternehmen, die die Regeln nicht einhalten, werden mit Bußgeldern belegt, die bis zu 7 % des globalen Jahresumsatzes für Verstöße gegen verbotene KI-Anwendungen betragen können, bis zu 3 % für Verstöße gegen andere Verpflichtungen und bis zu 1,5 % für die Bereitstellung falscher Informationen.

Internationale Reaktionen

Während des Gipfels wurde über die potenziellen Auswirkungen dieser neuen Richtlinien diskutiert. Der Beitrag der USA beschränkte sich hauptsächlich auf die Kritik an der europäischen Regulierung und Warnungen vor einer Zusammenarbeit mit China. Die USA und das Vereinigte Königreich lehnten die Unterzeichnung der AI Action Erklärung ab, was die Hoffnungen auf einen einheitlichen Ansatz zur Regulierung der Technologie dämpfte.

Das Dokument wurde von 60 Unterzeichnern unterstützt, darunter Australien, Kanada, China, Frankreich, Indien und Japan. Die USA präferieren so genannte wachstumsfördernde AI-Politiken über Sicherheitsüberlegungen, während Frankreich als Gastgeber des Gipfels erklärte, dass es Regeln benötigt, die die Grundlage für eine schnellere Akzeptanz und Wachstum schaffen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...