Richtlinien der Europäischen Kommission zu verbotenen KI-Praktiken

Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Richtlinien, um wesentliche Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Richtlinien zur Definition eines KI-Systems und Richtlinien zu verbotenen KI-Praktiken. Diese Richtlinien sollen als Leitfaden für die Verpflichtungen des AI Act dienen, die am 2. Februar 2025 in Kraft traten. Dazu gehören Abschnitte zur Definition, zur KI-Kompetenz und zu Verboten bestimmter KI-Praktiken.

Hauptinhalte der Richtlinien

Die Richtlinien umfassen über 100 Seiten detaillierte Anweisungen zur Interpretation und Anwendung der acht verbotenen KI-Praktiken, die in Artikel 5 des AI Act aufgeführt sind. Artikel 5 identifiziert Praktiken, die in Bezug auf KI-Systeme verboten sind. Die Richtlinien behandeln auch die Beziehung zwischen hochriskanten KI-Systemen (die unter das Gesetz fallen) und verbotenen Praktiken.

Schlüsselthemen aus den Richtlinien

  • Personalisierte Werbung: Artikel 5(1)(a) verbietet die Verwendung von KI-Systemen, die subliminale Techniken oder absichtlich manipulative Techniken einsetzen, um das Verhalten von Personen zu verzerren. Die Richtlinien stellen klar, dass die Personalisierung von Werbung basierend auf Benutzerpräferenzen nicht inhärent manipulativ ist, solange keine subliminalen oder täuschenden Techniken angewendet werden.
  • Gesetzliche Überzeugung: Artikel 5(1)(b) untersagt die Ausnutzung von Schwächen von Personen oder Gruppen. Die Richtlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
  • Schwäche und Sucht: Die Ausnutzung von Schwächen, basierend auf Faktoren wie Alter oder Behinderung, ist in Artikel 5(1)(b) ausdrücklich verboten. Beispiele umfassen KI-Systeme, die süchtig machende Verstärkungstechniken verwenden, um übermäßiges Spielen zu fördern.
  • Profiling und soziale Bewertung: Artikel 5(1)(c) verbietet die Verwendung von KI-Systemen zur Bewertung von Personen basierend auf ihrem sozialen Verhalten oder vorhergesagten persönlichen Eigenschaften. Ein Beispiel für eine unzulässige soziale Bewertung wäre, wenn eine Versicherungsgesellschaft finanzielle Informationen nutzt, um die Berechtigung für Lebensversicherungen zu bestimmen.
  • Prädiktive Polizeiarbeit: Artikel 5(1)(d) verbietet die Verwendung von KI-Systemen zur Vorhersage von Verbrechen basierend auf Profiling. Dies gilt sowohl für Strafverfolgungsbehörden als auch für private Akteure, die im Auftrag der Strafverfolgung handeln.
  • Gesichtserkennung: Artikel 5(1)(e) verbietet die Erstellung von Gesichtserkennungsdatenbanken durch das ungezielte Scraping von Bildern. Diese Vorschrift gilt nicht für Datenbanken, die nicht zur Identifizierung von Personen verwendet werden.
  • Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die Verwendung von KI-Systemen zur Inferierung von Emotionen von Personen im Arbeitsumfeld, mit bestimmten Ausnahmen.

Interpretation des AI Act

Die Richtlinien geben auch Hinweise zur Auslegung des Geltungsbereichs des AI Act und seiner Ausnahmen. Die Definitionen von „Platzierung auf dem Markt“, „Inbetriebnahme“ und „Nutzung“ werden detailliert erläutert, um sicherzustellen, dass die Praktiken klar verstanden werden.

Die Richtlinien betonen, dass der AI Act nicht für Forschungs- und Entwicklungsaktivitäten gilt, bevor KI-Systeme auf den Markt kommen. Dies gibt Entwicklern die Freiheit, neue Funktionen zu testen, auch wenn diese potenziell manipulativ sein könnten.

Insgesamt verdeutlichen die Richtlinien, dass die in Artikel 5 festgelegten Verbote sowohl für allgemein verwendbare KI-Systeme als auch für Systeme mit spezifischen Zwecken gelten. Anbieter von KI-Systemen haben die Verantwortung, sicherzustellen, dass ihre Produkte nicht in einer Weise verwendet werden, die gegen die Vorgaben des AI Act verstößt.

More Insights

Verantwortungsvolle KI-Workflows für UX-Forschung

Dieser Artikel untersucht, wie KI verantwortungsvoll in den Arbeitsabläufen der UX-Forschung integriert werden kann, um Geschwindigkeit und Effizienz zu steigern, während gleichzeitig die menschliche...

Die Entwicklung von Agentic AI im Bankwesen

Agentic AI revolutioniert die Bankenbranche, indem es autonome Systeme bereitstellt, die Entscheidungen treffen und Maßnahmen mit minimalem menschlichen Eingriff ergreifen. Diese Technologie...

KI-gestützte Compliance: Schlüssel zu skalierbarer Krypto-Infrastruktur

Die explosive Wachstums der Krypto-Industrie bringt zahlreiche regulatorische Herausforderungen mit sich, insbesondere im grenzüberschreitenden Betrieb. KI-native Compliance-Systeme sind entscheidend...

ASEANs Weg zur KI-Governance: Uneben, aber im Aufwind

Die ASEAN und ihre Mitgliedsstaaten verfolgen einen innovationsfreundlichen Ansatz zur künstlichen Intelligenz (KI), um die Region in Richtung einer vollständig digitalen Wirtschaft zu bringen...

Risiken der KI: Was Unternehmen ignorieren sollten

Im Jahr 2024 stellte der Softwareanbieter Sage seinen generativen KI-Assistenten ein, nachdem Benutzer berichtet hatten, dass sensible Finanzdaten zwischen Konten geleakt wurden. Unternehmen stehen...

Die Notwendigkeit für KI-Sicherheit: Chancen und Herausforderungen

Die Revolution der künstlichen Intelligenz ist keine ferne Verheißung mehr – sie ist hier und verändert Branchen, Volkswirtschaften und das tägliche Leben. Um die Macht der KI verantwortungsvoll zu...

Künstliche Intelligenz im Polizeiwesen: Chancen und Herausforderungen

Gesetzesvollzugsbehörden nutzen zunehmend künstliche Intelligenz (KI), um ihre Abläufe zu verbessern, insbesondere durch erweiterte Möglichkeiten für prädiktive Polizeiarbeit. Der globale Markt für...

Kenias Führungsrolle bei UN-Vereinbarung zur KI-Governance

Kenia hat einen bedeutenden diplomatischen Erfolg erzielt, nachdem alle 193 Mitgliedstaaten der Vereinten Nationen einstimmig beschlossen haben, zwei wegweisende Institutionen zur Regulierung der...