Richtlinien der Europäischen Kommission zu verbotenen KI-Praktiken

Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Richtlinien, um wesentliche Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Richtlinien zur Definition eines KI-Systems und Richtlinien zu verbotenen KI-Praktiken. Diese Richtlinien sollen als Leitfaden für die Verpflichtungen des AI Act dienen, die am 2. Februar 2025 in Kraft traten. Dazu gehören Abschnitte zur Definition, zur KI-Kompetenz und zu Verboten bestimmter KI-Praktiken.

Hauptinhalte der Richtlinien

Die Richtlinien umfassen über 100 Seiten detaillierte Anweisungen zur Interpretation und Anwendung der acht verbotenen KI-Praktiken, die in Artikel 5 des AI Act aufgeführt sind. Artikel 5 identifiziert Praktiken, die in Bezug auf KI-Systeme verboten sind. Die Richtlinien behandeln auch die Beziehung zwischen hochriskanten KI-Systemen (die unter das Gesetz fallen) und verbotenen Praktiken.

Schlüsselthemen aus den Richtlinien

  • Personalisierte Werbung: Artikel 5(1)(a) verbietet die Verwendung von KI-Systemen, die subliminale Techniken oder absichtlich manipulative Techniken einsetzen, um das Verhalten von Personen zu verzerren. Die Richtlinien stellen klar, dass die Personalisierung von Werbung basierend auf Benutzerpräferenzen nicht inhärent manipulativ ist, solange keine subliminalen oder täuschenden Techniken angewendet werden.
  • Gesetzliche Überzeugung: Artikel 5(1)(b) untersagt die Ausnutzung von Schwächen von Personen oder Gruppen. Die Richtlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
  • Schwäche und Sucht: Die Ausnutzung von Schwächen, basierend auf Faktoren wie Alter oder Behinderung, ist in Artikel 5(1)(b) ausdrücklich verboten. Beispiele umfassen KI-Systeme, die süchtig machende Verstärkungstechniken verwenden, um übermäßiges Spielen zu fördern.
  • Profiling und soziale Bewertung: Artikel 5(1)(c) verbietet die Verwendung von KI-Systemen zur Bewertung von Personen basierend auf ihrem sozialen Verhalten oder vorhergesagten persönlichen Eigenschaften. Ein Beispiel für eine unzulässige soziale Bewertung wäre, wenn eine Versicherungsgesellschaft finanzielle Informationen nutzt, um die Berechtigung für Lebensversicherungen zu bestimmen.
  • Prädiktive Polizeiarbeit: Artikel 5(1)(d) verbietet die Verwendung von KI-Systemen zur Vorhersage von Verbrechen basierend auf Profiling. Dies gilt sowohl für Strafverfolgungsbehörden als auch für private Akteure, die im Auftrag der Strafverfolgung handeln.
  • Gesichtserkennung: Artikel 5(1)(e) verbietet die Erstellung von Gesichtserkennungsdatenbanken durch das ungezielte Scraping von Bildern. Diese Vorschrift gilt nicht für Datenbanken, die nicht zur Identifizierung von Personen verwendet werden.
  • Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die Verwendung von KI-Systemen zur Inferierung von Emotionen von Personen im Arbeitsumfeld, mit bestimmten Ausnahmen.

Interpretation des AI Act

Die Richtlinien geben auch Hinweise zur Auslegung des Geltungsbereichs des AI Act und seiner Ausnahmen. Die Definitionen von „Platzierung auf dem Markt“, „Inbetriebnahme“ und „Nutzung“ werden detailliert erläutert, um sicherzustellen, dass die Praktiken klar verstanden werden.

Die Richtlinien betonen, dass der AI Act nicht für Forschungs- und Entwicklungsaktivitäten gilt, bevor KI-Systeme auf den Markt kommen. Dies gibt Entwicklern die Freiheit, neue Funktionen zu testen, auch wenn diese potenziell manipulativ sein könnten.

Insgesamt verdeutlichen die Richtlinien, dass die in Artikel 5 festgelegten Verbote sowohl für allgemein verwendbare KI-Systeme als auch für Systeme mit spezifischen Zwecken gelten. Anbieter von KI-Systemen haben die Verantwortung, sicherzustellen, dass ihre Produkte nicht in einer Weise verwendet werden, die gegen die Vorgaben des AI Act verstößt.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...