Richtlinien der Europäischen Kommission zu verbotenen KI-Praktiken

Richtlinien der Europäischen Kommission zu Verbotenen KI-Praktiken gemäß dem EU-Gesetz über Künstliche Intelligenz

Im Februar 2025 veröffentlichte die Europäische Kommission zwei Richtlinien, um wesentliche Aspekte des EU-Gesetzes über Künstliche Intelligenz („AI Act“) zu klären: Richtlinien zur Definition eines KI-Systems und Richtlinien zu verbotenen KI-Praktiken. Diese Richtlinien sollen als Leitfaden für die Verpflichtungen des AI Act dienen, die am 2. Februar 2025 in Kraft traten. Dazu gehören Abschnitte zur Definition, zur KI-Kompetenz und zu Verboten bestimmter KI-Praktiken.

Hauptinhalte der Richtlinien

Die Richtlinien umfassen über 100 Seiten detaillierte Anweisungen zur Interpretation und Anwendung der acht verbotenen KI-Praktiken, die in Artikel 5 des AI Act aufgeführt sind. Artikel 5 identifiziert Praktiken, die in Bezug auf KI-Systeme verboten sind. Die Richtlinien behandeln auch die Beziehung zwischen hochriskanten KI-Systemen (die unter das Gesetz fallen) und verbotenen Praktiken.

Schlüsselthemen aus den Richtlinien

  • Personalisierte Werbung: Artikel 5(1)(a) verbietet die Verwendung von KI-Systemen, die subliminale Techniken oder absichtlich manipulative Techniken einsetzen, um das Verhalten von Personen zu verzerren. Die Richtlinien stellen klar, dass die Personalisierung von Werbung basierend auf Benutzerpräferenzen nicht inhärent manipulativ ist, solange keine subliminalen oder täuschenden Techniken angewendet werden.
  • Gesetzliche Überzeugung: Artikel 5(1)(b) untersagt die Ausnutzung von Schwächen von Personen oder Gruppen. Die Richtlinien erklären, dass eine Verzerrung über die „gesetzliche Überzeugung“ hinausgehen muss, um als verbotene KI-Praxis zu gelten.
  • Schwäche und Sucht: Die Ausnutzung von Schwächen, basierend auf Faktoren wie Alter oder Behinderung, ist in Artikel 5(1)(b) ausdrücklich verboten. Beispiele umfassen KI-Systeme, die süchtig machende Verstärkungstechniken verwenden, um übermäßiges Spielen zu fördern.
  • Profiling und soziale Bewertung: Artikel 5(1)(c) verbietet die Verwendung von KI-Systemen zur Bewertung von Personen basierend auf ihrem sozialen Verhalten oder vorhergesagten persönlichen Eigenschaften. Ein Beispiel für eine unzulässige soziale Bewertung wäre, wenn eine Versicherungsgesellschaft finanzielle Informationen nutzt, um die Berechtigung für Lebensversicherungen zu bestimmen.
  • Prädiktive Polizeiarbeit: Artikel 5(1)(d) verbietet die Verwendung von KI-Systemen zur Vorhersage von Verbrechen basierend auf Profiling. Dies gilt sowohl für Strafverfolgungsbehörden als auch für private Akteure, die im Auftrag der Strafverfolgung handeln.
  • Gesichtserkennung: Artikel 5(1)(e) verbietet die Erstellung von Gesichtserkennungsdatenbanken durch das ungezielte Scraping von Bildern. Diese Vorschrift gilt nicht für Datenbanken, die nicht zur Identifizierung von Personen verwendet werden.
  • Emotionserkennung am Arbeitsplatz: Artikel 5(1)(f) verbietet die Verwendung von KI-Systemen zur Inferierung von Emotionen von Personen im Arbeitsumfeld, mit bestimmten Ausnahmen.

Interpretation des AI Act

Die Richtlinien geben auch Hinweise zur Auslegung des Geltungsbereichs des AI Act und seiner Ausnahmen. Die Definitionen von „Platzierung auf dem Markt“, „Inbetriebnahme“ und „Nutzung“ werden detailliert erläutert, um sicherzustellen, dass die Praktiken klar verstanden werden.

Die Richtlinien betonen, dass der AI Act nicht für Forschungs- und Entwicklungsaktivitäten gilt, bevor KI-Systeme auf den Markt kommen. Dies gibt Entwicklern die Freiheit, neue Funktionen zu testen, auch wenn diese potenziell manipulativ sein könnten.

Insgesamt verdeutlichen die Richtlinien, dass die in Artikel 5 festgelegten Verbote sowohl für allgemein verwendbare KI-Systeme als auch für Systeme mit spezifischen Zwecken gelten. Anbieter von KI-Systemen haben die Verantwortung, sicherzustellen, dass ihre Produkte nicht in einer Weise verwendet werden, die gegen die Vorgaben des AI Act verstößt.

More Insights

Moratorium auf staatliche KI-Regulierung: Kontroversen und Chancen

Die Moratorium auf staatliche KI-Regulierung stößt sowohl auf Kritik als auch auf Lob innerhalb der Republikanischen Partei. Während einige Gesetzgeber die Notwendigkeit betonen, staatliche Befugnisse...

IBM präsentiert integrierte Software für KI-Sicherheit und Governance

IBM hat neue Softwarefähigkeiten eingeführt, die KI-Sicherheit und -Governance integrieren, und behauptet, dass dies die erste einheitliche Lösung zur Verwaltung von Risiken autonomer KI sei. Die...

KI mit Gewissen: Ethische Herausforderungen und Governance-Strategien

Künstliche Intelligenz (KI) beeinflusst zunehmend kritische Entscheidungsprozesse in verschiedenen Branchen, was robuste ethische Governance-Rahmenbedingungen erforderlich macht. Agentic AI, die zur...

Von Compliance zu Kontrolle: Meisterung von KI und Datensouveränität

Die globale Wirtschaft befindet sich in einer beispiellosen Transformationsphase, die durch den raschen Anstieg von Daten und künstlicher Intelligenz vorangetrieben wird. Laut einer Studie wird die...

Leo XIV: Führungsrolle in der KI-Ethischkeitsdebatte

Papst Leo XIV hat sich als zentrale Figur in den globalen Diskussionen über die Regulierung von KI hervorgetan und betont die Notwendigkeit ethischer Maßnahmen in der Ära der künstlichen Intelligenz...

Staatliche Regulierung von KI: Warum der Kongress nicht eingreifen sollte

Die US-Gesetzgeber stehen kurz davor, drastische Maßnahmen zu ergreifen, die die staatliche Regulierung von KI für 10 Jahre verbieten würden. Ein solches Moratorium könnte die Innovationskraft der USA...

Wild Tech: KI-Governance effizient umsetzen

Wild Tech hat eine neue Plattform eingeführt, die Organisationen dabei helfen soll, die Nutzung von KI zu regulieren und die Datenverwaltung zu verbessern. Die Lösung richtet sich an Unternehmen, die...

Vereinte KI-Sicherheit und Governance für autonome Systeme

IBM hat die erste Software der Branche vorgestellt, die Teams für KI-Sicherheit und -Governance zusammenbringt und einen einheitlichen Überblick über die Risikolage von Unternehmen bietet. Die neuen...