Neue EU-Vorschriften schränken Emotionserkennung am Arbeitsplatz ein

Die neuen AI-Vorschriften der EU und deren Auswirkungen auf emotionale Erkennungssysteme am Arbeitsplatz

Die neuen Vorschriften der Europäischen Union (EU) zu künstlicher Intelligenz (AI) beschränken den Einsatz von emotionale Erkennungssystemen in Arbeitsumgebungen. Diese Regelungen zielen darauf ab, den Datenschutz zu wahren und potenzielle Vorurteile in der AI-gestützten Emotionserkennung zu bekämpfen.

Vorgaben für emotionale Erkennungssysteme

Gemäß den neuen Richtlinien sind AI-Systeme, die Emotionen aus Tastatureingaben, Körperhaltungen oder Bewegungen ableiten, aufgrund ihrer Abhängigkeit von biometrischen Daten eingeschränkt. Diese Regelungen sollen eine einheitliche Anwendung des AI-Gesetzes in der gesamten EU gewährleisten.

Obwohl diese Richtlinien wertvolle Einblicke in die Auslegung der Vorschriften geben, sind sie nicht bindend. Die letztendliche Auslegung bleibt dem Europäischen Gerichtshof (CJEU) vorbehalten.

Verwendung während der Rekrutierung

Die Vorschriften betreffen auch den Einsatz von emotionalen Erkennungssystemen während der Rekrutierungs- und Probezeit. Beispielsweise sind folgende Praktiken untersagt:

  • AI-Systeme zur Überwachung des emotionalen Tons in hybriden Arbeitsteams, die Emotionen aus Stimmen und Bildern in Videoanrufen ableiten.
  • Der Einsatz von Kameras in Supermärkten zur Überwachung der Emotionen von Mitarbeitern, wie beispielsweise zu prüfen, ob sie glücklich sind.
  • Die Verwendung von Webcams und Spracherkennungssystemen in Call-Centern zur Verfolgung der Emotionen von Mitarbeitern.

Diese Technologien dürfen jedoch für persönliche Trainingszwecke eingesetzt werden, solange die Daten nicht mit der Personalabteilung geteilt werden und keinen Einfluss auf die Beurteilung und Beförderung des Mitarbeiters haben.

Datenschutzrisiken durch AI angehen

Die Einführung dieser Vorschriften soll die Datenschutzbedenken und die Möglichkeit von Vorurteilen in der AI-gestützten Emotionserkennung adressieren. Emotionale Erkennungssysteme, die die emotionalen Zustände von Individuen analysieren, werfen ethische Fragen auf, da die emotionale Ausdrucksweise von Kultur zu Kultur und von Person zu Person variiert.

Das Verbot dieser Systeme zielt darauf ab, die Würde der Arbeiter zu schützen und diskriminierende Praktiken zu verhindern. Es gibt jedoch Ausnahmen für AI-Systeme, die zur Überwachung emotionaler Zustände aus medizinischen oder sicherheitsrelevanten Gründen eingesetzt werden dürfen.

Anwendungsbeispiele für AI zur Überwachung von emotionalen Zuständen

Ein Beispiel für den Einsatz von AI in hochriskanten Umgebungen sind Fabriken oder Baustellen, wo AI verwendet werden könnte, um Stress oder Burnout zu erkennen, sofern die Technologie direkt mit dem Wohlbefinden und der Sicherheit der Mitarbeiter verknüpft ist.

Zusammenfassung der AI-Gesetzgebung

Das AI-Gesetz der EU trat im August 2024 in Kraft und wird ab dem 2. August 2026 vollständig anwendbar sein. Die Ambition hinter diesen Vorschriften besteht darin, rechtliche Sicherheit für Anbieter und Anwender von AI-Systemen auf dem europäischen Markt zu schaffen. Die Richtlinien sind jedoch nicht rechtlich bindend.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...