AI-Gesetz: Wegbereiter für globale Regulierung

Der AI Act als Sprungbrett für effektive Regulierung weltweit

In den letzten Wochen hat die Diskussion über Künstliche Intelligenz (KI) auf dem europäischen Kontinent an Intensität gewonnen. Zunächst wurde neue Richtlinien rund um den AI Act, das umfassendste regulatorische Rahmenwerk für KI bis dato, veröffentlicht. Darüber hinaus fand der AI Action Summit statt, der von Frankreich ausgerichtet und von Indien mitgeco-geleitet wurde.

Die Beteiligung war hoch, mit fast 100 Ländern und mehr als 1.000 Vertretern aus dem privaten Sektor und der Zivilgesellschaft. Die Debatten haben wichtige Fragen zur Regulierung aufgeworfen. Teil des Gipfels war die Vorstellung der EU-Initiative InvestAI in Höhe von 200 Milliarden Euro (210 Milliarden US-Dollar), die darauf abzielt, vier KI-Gigafabriken zu finanzieren, um große KI-Modelle auszubilden. Dies ist Teil einer umfassenderen Strategie zur Förderung der offenen und kollaborativen Entwicklung fortschrittlicher KI-Modelle in der EU.

Regulierung vs. Innovation

Der AI Action Summit bot eine Plattform zur Diskussion der Frage: Überwiegt Innovation die Regulierung? Es kann jedoch argumentiert werden, dass die Ignorierung der Risiken, die mit KI verbunden sind, die Innovation nicht beschleunigen wird. Die aktuellen Herausforderungen in Europa hängen mehr mit Marktfragmentierung und einem Mangel an Dynamik im Risikokapital zusammen. Es ist wichtig, dass demokratische Regierungen praktische Maßnahmen ergreifen, anstatt nur leere Versprechungen abzugeben, und sich auf die Risiken für die soziale, politische und wirtschaftliche Stabilität der Welt konzentrieren, die aus dem Missbrauch von KI-Modellen resultieren.

Analysten von GlobalData bemerkten, dass umfassende Regulierung einen Rahmen für Marktstabilität bietet, der zu einer größeren Akzeptanz von KI führen kann, da Organisationen mehr Vertrauen in die Einhaltung haben.

Das vierstufige Risikomodell des AI Act

Der AI Act folgt einem vierstufigen Risikobasierenden System. Die höchste Stufe, das „unacceptable risk“, umfasst KI-Systeme, die als klare Bedrohung für die gesellschaftliche Sicherheit gelten. Acht Praktiken sind in dieser Kategorie enthalten, darunter:

  • Schädliche KI-basierte Manipulation und Täuschung
  • Schädliche KI-basierte Ausnutzung von Schwächen
  • Soziale Bewertung
  • Risikoabschätzung oder -vorhersage von individuellen Straftaten
  • Ungezieltes Scraping des Internets oder CCTV-Material zur Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken
  • Emotionserkennung in Arbeits- und Bildungseinrichtungen
  • Biometrische Kategorisierung zur Ableitung bestimmter geschützter Merkmale
  • Echtzeit-Remote-Biometrische Identifikation für Strafverfolgungszwecke in öffentlich zugänglichen Räumen

Diese Systeme sind seit dem 2. Februar 2025 verboten.

Die nächste Stufe, die „high-risk“ Stufe, umfasst KI-Anwendungsfälle, die ernsthafte Risiken für die Gesundheit, Sicherheit oder grundlegende Rechte darstellen können. Dazu gehören KI-Lösungen, die in Bildungseinrichtungen verwendet werden, um den Zugang zur Bildung und den Verlauf des beruflichen Lebens zu bestimmen, etwa die Notenvergabe.

Regelungen für Hochrisiko-KI-Systeme

Obwohl diese Systeme nicht verboten sind, unterliegen sie rechtlichen Verpflichtungen, bevor sie auf den Markt kommen können. Dazu gehören eine angemessene Risikoabschätzung und -minderung sowie detaillierte Dokumentationen, die alle erforderlichen Informationen bereitstellen.

Dies betrifft auch die Transparenzverpflichtungen für KI-Systeme mit geringerem Risiko. Entwickler und Anbieter müssen sicherstellen, dass Endbenutzer wissen, dass sie mit KI interagieren, insbesondere in praktischen Fällen wie Chatbots und Deepfakes.

Compliance und Sanktionen

Unternehmen, die die Regeln nicht einhalten, werden mit Bußgeldern belegt, die bis zu 7 % des globalen Jahresumsatzes für Verstöße gegen verbotene KI-Anwendungen betragen können, bis zu 3 % für Verstöße gegen andere Verpflichtungen und bis zu 1,5 % für die Bereitstellung falscher Informationen.

Internationale Reaktionen

Während des Gipfels wurde über die potenziellen Auswirkungen dieser neuen Richtlinien diskutiert. Der Beitrag der USA beschränkte sich hauptsächlich auf die Kritik an der europäischen Regulierung und Warnungen vor einer Zusammenarbeit mit China. Die USA und das Vereinigte Königreich lehnten die Unterzeichnung der AI Action Erklärung ab, was die Hoffnungen auf einen einheitlichen Ansatz zur Regulierung der Technologie dämpfte.

Das Dokument wurde von 60 Unterzeichnern unterstützt, darunter Australien, Kanada, China, Frankreich, Indien und Japan. Die USA präferieren so genannte wachstumsfördernde AI-Politiken über Sicherheitsüberlegungen, während Frankreich als Gastgeber des Gipfels erklärte, dass es Regeln benötigt, die die Grundlage für eine schnellere Akzeptanz und Wachstum schaffen.

More Insights

CII fordert klare Regeln für den Einsatz von KI im Finanzsektor

Der Chartered Insurance Institute (CII) hat klare Verantwortungsrahmen und eine sektorweite Schulungsstrategie gefordert, um den Einsatz von Künstlicher Intelligenz (KI) im Finanzdienstleistungssektor...

Künstliche Intelligenz in New York: Wichtige Gesetzesänderungen für Arbeitgeber im Jahr 2025

Im ersten Halbjahr 2025 hat New York, ähnlich wie andere Bundesstaaten, Gesetze zur Regulierung von Künstlicher Intelligenz (KI) auf Ebene der Bundesstaaten eingeführt. Insbesondere konzentriert sich...

Risikomanagement für Künstliche Intelligenz: Strategien zur Minimierung von Gefahren

Die Risiken von KI-Systemen können durch verschiedene Faktoren wie Datenqualität, Modellarchitektur und betriebliche Herausforderungen beeinflusst werden. Ein effektives Risikomanagement ist...

Wichtige Erkenntnisse zum EU-Gesetz über Künstliche Intelligenz

Die Europäische Union hat das Gesetz über künstliche Intelligenz (AI Act) eingeführt, das darauf abzielt, die Risiken und Möglichkeiten von KI-Technologien in Europa zu verwalten. Dieses Gesetz ist...

Koreas KI-Grundgesetz: Ein neuer Rahmen für künstliche Intelligenz

Südkorea hat sich mit dem Inkrafttreten des Gesetzes über die Entwicklung von Künstlicher Intelligenz und die Schaffung von Vertrauen, bekannt als AI Basic Act, an die Spitze der KI-Regulierung in...

EU AI-Gesetz und DORA: Finanzielle Risiken und Compliance neu definiert

Die EU AI Act und DORA stellen neue Anforderungen an Finanzinstitute, indem sie Transparenz und Resilienz in der Nutzung von KI-Systemen fordern. Unternehmen müssen die finanziellen Risiken...

KI-Regulierung im transatlantischen Kontext

Künstliche Intelligenz (KI) hat sich zu einer der bedeutendsten technologischen Kräfte der Gegenwart entwickelt und hat das Potenzial, Volkswirtschaften, Gesellschaften und die globale Governance...

EU-Kommission plant Maßnahmen zur Förderung von KI-Gigafabriken

Die EU-Kommission möchte die Hürden für den Einsatz von Künstlicher Intelligenz (KI) abbauen und plant, die Infrastruktur für Datenzentren in Europa erheblich auszubauen. Dies geschieht im Rahmen des...