Der AI Act als Sprungbrett für effektive Regulierung weltweit
In den letzten Wochen hat die Diskussion über Künstliche Intelligenz (KI) auf dem europäischen Kontinent an Intensität gewonnen. Zunächst wurde neue Richtlinien rund um den AI Act, das umfassendste regulatorische Rahmenwerk für KI bis dato, veröffentlicht. Darüber hinaus fand der AI Action Summit statt, der von Frankreich ausgerichtet und von Indien mitgeco-geleitet wurde.
Die Beteiligung war hoch, mit fast 100 Ländern und mehr als 1.000 Vertretern aus dem privaten Sektor und der Zivilgesellschaft. Die Debatten haben wichtige Fragen zur Regulierung aufgeworfen. Teil des Gipfels war die Vorstellung der EU-Initiative InvestAI in Höhe von 200 Milliarden Euro (210 Milliarden US-Dollar), die darauf abzielt, vier KI-Gigafabriken zu finanzieren, um große KI-Modelle auszubilden. Dies ist Teil einer umfassenderen Strategie zur Förderung der offenen und kollaborativen Entwicklung fortschrittlicher KI-Modelle in der EU.
Regulierung vs. Innovation
Der AI Action Summit bot eine Plattform zur Diskussion der Frage: Überwiegt Innovation die Regulierung? Es kann jedoch argumentiert werden, dass die Ignorierung der Risiken, die mit KI verbunden sind, die Innovation nicht beschleunigen wird. Die aktuellen Herausforderungen in Europa hängen mehr mit Marktfragmentierung und einem Mangel an Dynamik im Risikokapital zusammen. Es ist wichtig, dass demokratische Regierungen praktische Maßnahmen ergreifen, anstatt nur leere Versprechungen abzugeben, und sich auf die Risiken für die soziale, politische und wirtschaftliche Stabilität der Welt konzentrieren, die aus dem Missbrauch von KI-Modellen resultieren.
Analysten von GlobalData bemerkten, dass umfassende Regulierung einen Rahmen für Marktstabilität bietet, der zu einer größeren Akzeptanz von KI führen kann, da Organisationen mehr Vertrauen in die Einhaltung haben.
Das vierstufige Risikomodell des AI Act
Der AI Act folgt einem vierstufigen Risikobasierenden System. Die höchste Stufe, das „unacceptable risk“, umfasst KI-Systeme, die als klare Bedrohung für die gesellschaftliche Sicherheit gelten. Acht Praktiken sind in dieser Kategorie enthalten, darunter:
- Schädliche KI-basierte Manipulation und Täuschung
- Schädliche KI-basierte Ausnutzung von Schwächen
- Soziale Bewertung
- Risikoabschätzung oder -vorhersage von individuellen Straftaten
- Ungezieltes Scraping des Internets oder CCTV-Material zur Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken
- Emotionserkennung in Arbeits- und Bildungseinrichtungen
- Biometrische Kategorisierung zur Ableitung bestimmter geschützter Merkmale
- Echtzeit-Remote-Biometrische Identifikation für Strafverfolgungszwecke in öffentlich zugänglichen Räumen
Diese Systeme sind seit dem 2. Februar 2025 verboten.
Die nächste Stufe, die „high-risk“ Stufe, umfasst KI-Anwendungsfälle, die ernsthafte Risiken für die Gesundheit, Sicherheit oder grundlegende Rechte darstellen können. Dazu gehören KI-Lösungen, die in Bildungseinrichtungen verwendet werden, um den Zugang zur Bildung und den Verlauf des beruflichen Lebens zu bestimmen, etwa die Notenvergabe.
Regelungen für Hochrisiko-KI-Systeme
Obwohl diese Systeme nicht verboten sind, unterliegen sie rechtlichen Verpflichtungen, bevor sie auf den Markt kommen können. Dazu gehören eine angemessene Risikoabschätzung und -minderung sowie detaillierte Dokumentationen, die alle erforderlichen Informationen bereitstellen.
Dies betrifft auch die Transparenzverpflichtungen für KI-Systeme mit geringerem Risiko. Entwickler und Anbieter müssen sicherstellen, dass Endbenutzer wissen, dass sie mit KI interagieren, insbesondere in praktischen Fällen wie Chatbots und Deepfakes.
Compliance und Sanktionen
Unternehmen, die die Regeln nicht einhalten, werden mit Bußgeldern belegt, die bis zu 7 % des globalen Jahresumsatzes für Verstöße gegen verbotene KI-Anwendungen betragen können, bis zu 3 % für Verstöße gegen andere Verpflichtungen und bis zu 1,5 % für die Bereitstellung falscher Informationen.
Internationale Reaktionen
Während des Gipfels wurde über die potenziellen Auswirkungen dieser neuen Richtlinien diskutiert. Der Beitrag der USA beschränkte sich hauptsächlich auf die Kritik an der europäischen Regulierung und Warnungen vor einer Zusammenarbeit mit China. Die USA und das Vereinigte Königreich lehnten die Unterzeichnung der AI Action Erklärung ab, was die Hoffnungen auf einen einheitlichen Ansatz zur Regulierung der Technologie dämpfte.
Das Dokument wurde von 60 Unterzeichnern unterstützt, darunter Australien, Kanada, China, Frankreich, Indien und Japan. Die USA präferieren so genannte wachstumsfördernde AI-Politiken über Sicherheitsüberlegungen, während Frankreich als Gastgeber des Gipfels erklärte, dass es Regeln benötigt, die die Grundlage für eine schnellere Akzeptanz und Wachstum schaffen.