Die neuen AI-Vorschriften der EU und deren Auswirkungen auf emotionale Erkennungssysteme am Arbeitsplatz
Die neuen Vorschriften der Europäischen Union (EU) zu künstlicher Intelligenz (AI) beschränken den Einsatz von emotionale Erkennungssystemen in Arbeitsumgebungen. Diese Regelungen zielen darauf ab, den Datenschutz zu wahren und potenzielle Vorurteile in der AI-gestützten Emotionserkennung zu bekämpfen.
Vorgaben für emotionale Erkennungssysteme
Gemäß den neuen Richtlinien sind AI-Systeme, die Emotionen aus Tastatureingaben, Körperhaltungen oder Bewegungen ableiten, aufgrund ihrer Abhängigkeit von biometrischen Daten eingeschränkt. Diese Regelungen sollen eine einheitliche Anwendung des AI-Gesetzes in der gesamten EU gewährleisten.
Obwohl diese Richtlinien wertvolle Einblicke in die Auslegung der Vorschriften geben, sind sie nicht bindend. Die letztendliche Auslegung bleibt dem Europäischen Gerichtshof (CJEU) vorbehalten.
Verwendung während der Rekrutierung
Die Vorschriften betreffen auch den Einsatz von emotionalen Erkennungssystemen während der Rekrutierungs- und Probezeit. Beispielsweise sind folgende Praktiken untersagt:
- AI-Systeme zur Überwachung des emotionalen Tons in hybriden Arbeitsteams, die Emotionen aus Stimmen und Bildern in Videoanrufen ableiten.
- Der Einsatz von Kameras in Supermärkten zur Überwachung der Emotionen von Mitarbeitern, wie beispielsweise zu prüfen, ob sie glücklich sind.
- Die Verwendung von Webcams und Spracherkennungssystemen in Call-Centern zur Verfolgung der Emotionen von Mitarbeitern.
Diese Technologien dürfen jedoch für persönliche Trainingszwecke eingesetzt werden, solange die Daten nicht mit der Personalabteilung geteilt werden und keinen Einfluss auf die Beurteilung und Beförderung des Mitarbeiters haben.
Datenschutzrisiken durch AI angehen
Die Einführung dieser Vorschriften soll die Datenschutzbedenken und die Möglichkeit von Vorurteilen in der AI-gestützten Emotionserkennung adressieren. Emotionale Erkennungssysteme, die die emotionalen Zustände von Individuen analysieren, werfen ethische Fragen auf, da die emotionale Ausdrucksweise von Kultur zu Kultur und von Person zu Person variiert.
Das Verbot dieser Systeme zielt darauf ab, die Würde der Arbeiter zu schützen und diskriminierende Praktiken zu verhindern. Es gibt jedoch Ausnahmen für AI-Systeme, die zur Überwachung emotionaler Zustände aus medizinischen oder sicherheitsrelevanten Gründen eingesetzt werden dürfen.
Anwendungsbeispiele für AI zur Überwachung von emotionalen Zuständen
Ein Beispiel für den Einsatz von AI in hochriskanten Umgebungen sind Fabriken oder Baustellen, wo AI verwendet werden könnte, um Stress oder Burnout zu erkennen, sofern die Technologie direkt mit dem Wohlbefinden und der Sicherheit der Mitarbeiter verknüpft ist.
Zusammenfassung der AI-Gesetzgebung
Das AI-Gesetz der EU trat im August 2024 in Kraft und wird ab dem 2. August 2026 vollständig anwendbar sein. Die Ambition hinter diesen Vorschriften besteht darin, rechtliche Sicherheit für Anbieter und Anwender von AI-Systemen auf dem europäischen Markt zu schaffen. Die Richtlinien sind jedoch nicht rechtlich bindend.