AI-Gesetz: Wegbereiter für globale Regulierung

Der AI Act als Sprungbrett für effektive Regulierung weltweit

In den letzten Wochen hat die Diskussion über Künstliche Intelligenz (KI) auf dem europäischen Kontinent an Intensität gewonnen. Zunächst wurde neue Richtlinien rund um den AI Act, das umfassendste regulatorische Rahmenwerk für KI bis dato, veröffentlicht. Darüber hinaus fand der AI Action Summit statt, der von Frankreich ausgerichtet und von Indien mitgeco-geleitet wurde.

Die Beteiligung war hoch, mit fast 100 Ländern und mehr als 1.000 Vertretern aus dem privaten Sektor und der Zivilgesellschaft. Die Debatten haben wichtige Fragen zur Regulierung aufgeworfen. Teil des Gipfels war die Vorstellung der EU-Initiative InvestAI in Höhe von 200 Milliarden Euro (210 Milliarden US-Dollar), die darauf abzielt, vier KI-Gigafabriken zu finanzieren, um große KI-Modelle auszubilden. Dies ist Teil einer umfassenderen Strategie zur Förderung der offenen und kollaborativen Entwicklung fortschrittlicher KI-Modelle in der EU.

Regulierung vs. Innovation

Der AI Action Summit bot eine Plattform zur Diskussion der Frage: Überwiegt Innovation die Regulierung? Es kann jedoch argumentiert werden, dass die Ignorierung der Risiken, die mit KI verbunden sind, die Innovation nicht beschleunigen wird. Die aktuellen Herausforderungen in Europa hängen mehr mit Marktfragmentierung und einem Mangel an Dynamik im Risikokapital zusammen. Es ist wichtig, dass demokratische Regierungen praktische Maßnahmen ergreifen, anstatt nur leere Versprechungen abzugeben, und sich auf die Risiken für die soziale, politische und wirtschaftliche Stabilität der Welt konzentrieren, die aus dem Missbrauch von KI-Modellen resultieren.

Analysten von GlobalData bemerkten, dass umfassende Regulierung einen Rahmen für Marktstabilität bietet, der zu einer größeren Akzeptanz von KI führen kann, da Organisationen mehr Vertrauen in die Einhaltung haben.

Das vierstufige Risikomodell des AI Act

Der AI Act folgt einem vierstufigen Risikobasierenden System. Die höchste Stufe, das „unacceptable risk“, umfasst KI-Systeme, die als klare Bedrohung für die gesellschaftliche Sicherheit gelten. Acht Praktiken sind in dieser Kategorie enthalten, darunter:

  • Schädliche KI-basierte Manipulation und Täuschung
  • Schädliche KI-basierte Ausnutzung von Schwächen
  • Soziale Bewertung
  • Risikoabschätzung oder -vorhersage von individuellen Straftaten
  • Ungezieltes Scraping des Internets oder CCTV-Material zur Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken
  • Emotionserkennung in Arbeits- und Bildungseinrichtungen
  • Biometrische Kategorisierung zur Ableitung bestimmter geschützter Merkmale
  • Echtzeit-Remote-Biometrische Identifikation für Strafverfolgungszwecke in öffentlich zugänglichen Räumen

Diese Systeme sind seit dem 2. Februar 2025 verboten.

Die nächste Stufe, die „high-risk“ Stufe, umfasst KI-Anwendungsfälle, die ernsthafte Risiken für die Gesundheit, Sicherheit oder grundlegende Rechte darstellen können. Dazu gehören KI-Lösungen, die in Bildungseinrichtungen verwendet werden, um den Zugang zur Bildung und den Verlauf des beruflichen Lebens zu bestimmen, etwa die Notenvergabe.

Regelungen für Hochrisiko-KI-Systeme

Obwohl diese Systeme nicht verboten sind, unterliegen sie rechtlichen Verpflichtungen, bevor sie auf den Markt kommen können. Dazu gehören eine angemessene Risikoabschätzung und -minderung sowie detaillierte Dokumentationen, die alle erforderlichen Informationen bereitstellen.

Dies betrifft auch die Transparenzverpflichtungen für KI-Systeme mit geringerem Risiko. Entwickler und Anbieter müssen sicherstellen, dass Endbenutzer wissen, dass sie mit KI interagieren, insbesondere in praktischen Fällen wie Chatbots und Deepfakes.

Compliance und Sanktionen

Unternehmen, die die Regeln nicht einhalten, werden mit Bußgeldern belegt, die bis zu 7 % des globalen Jahresumsatzes für Verstöße gegen verbotene KI-Anwendungen betragen können, bis zu 3 % für Verstöße gegen andere Verpflichtungen und bis zu 1,5 % für die Bereitstellung falscher Informationen.

Internationale Reaktionen

Während des Gipfels wurde über die potenziellen Auswirkungen dieser neuen Richtlinien diskutiert. Der Beitrag der USA beschränkte sich hauptsächlich auf die Kritik an der europäischen Regulierung und Warnungen vor einer Zusammenarbeit mit China. Die USA und das Vereinigte Königreich lehnten die Unterzeichnung der AI Action Erklärung ab, was die Hoffnungen auf einen einheitlichen Ansatz zur Regulierung der Technologie dämpfte.

Das Dokument wurde von 60 Unterzeichnern unterstützt, darunter Australien, Kanada, China, Frankreich, Indien und Japan. Die USA präferieren so genannte wachstumsfördernde AI-Politiken über Sicherheitsüberlegungen, während Frankreich als Gastgeber des Gipfels erklärte, dass es Regeln benötigt, die die Grundlage für eine schnellere Akzeptanz und Wachstum schaffen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...