Offene Fragen zur Regulierung von Emotionserkennungstechnologien

Offensichtliche Schlupflöcher im Verbot von Emotionserkennungstechnologien im AI-Gesetz?

Am 13. Mai 2024 wurde während einer Veranstaltung von OpenAI das KI-Modell Chat-GPT gebeten, eine Gute-Nacht-Geschichte zu erzählen, was es mit unterschiedlichen emotionalen Tonlagen tat. Ein paar Minuten später fragte ein Forscher von OpenAI Chat-GPT, seine Emotionen durch seine Gesichtsausdrücke zu bewerten. Das KI-Modell antwortete in weiblicher Stimme: „glücklich und fröhlich mit einem großen Lächeln und vielleicht sogar einem Hauch von Aufregung. Egal, was passiert, es scheint, als wären Sie in großartiger Stimmung. Möchten Sie die Quelle dieser guten Stimmung teilen?“

Emotionserkennungstechnologien (ERTs)

Emotionserkennungstechnologien sind Systeme, die die emotionalen Zustände von Individuen durch verschiedene Methoden erkennen und identifizieren. Einige ERTs spezialisieren sich auf die Erkennung und Identifizierung breiter emotionaler Zustände und konzentrieren sich somit auf negative oder positive Zustände (d.h. Valenz), während andere eine breite Palette diskreter emotionaler Zustände überwachen (z.B. Glück, Angst, Wut, Überraschung, Verwirrung usw.).

ERT existiert seit fast 10 Jahren und war umstritten. Technologien wie Amazons Rekognition, Microsoft Azure Emotion Recognition (auch bekannt als API Face) und das von Apple übernommene Start-up Emotient behaupten, die Emotionen von Menschen durch Gesichtsausdrücke zu erkennen. Aber sie sind nicht allein. Nao, MiRo, Xiaoce, Hume-basierte KI, Happimeter, AVATAR, iBorderCtrl sind alles verschiedene Ausprägungen von ERT, die alle die gleiche Meinung vertreten: Der Zugang zu und die Exposition gegenüber dem inneren affektiven Leben ist wünschenswert. Der Markt für die ERT-Industrie wurde 2019 auf rund 20 Milliarden Dollar geschätzt, mit einem massiven globalen Auftreten in Flughäfen, Schulen, sozialen Medien, HR-Prozessen und Strafverfolgung. Es wird prognostiziert, dass die Branche bis Ende 2024 50 Milliarden Dollar überschreiten wird.

Emotionen und deren Bedeutung

Emotionen und emotionale Ausdrucksformen haben immer ein wichtiges Gewicht bei der Beurteilung des Charakters und der Absichten einer Person getragen. Das Analysieren der Emotionen einer anderen Person hilft, unsere wichtigsten Urteile zu bilden, sei es, dass wir unseren Partner mit Zweifeln an seiner Loyalität konfrontieren, entscheiden, ob wir einem Kollegen wichtige Informationen anvertrauen oder in einer Jury sitzen, die darüber entscheidet, ob jemand zum Tode verurteilt wird. Der US-Supreme-Court-Richter Anthony Kennedy schrieb in Riggins v. Nevada im Jahr 1992, dass es notwendig ist, zu wissen, ob der Angeklagte reuevoll oder schuldig ist, um „das Herz und den Verstand des Täters zu kennen“.

Kontroversen um emotionale Ausdrucksformen

Die Vorstellung, dass die emotionalen Ausdrucksformen einer Person ihren tatsächlichen Geisteszustand offenbaren können, war schon immer umstritten, da Individuen andere in dieser Hinsicht manchmal täuschen können – und einige Menschen sind darin sehr gut. Dies folgt einem verbreiteten Glauben, dass die inneren Zustände von Menschen nie vollständig für andere zugänglich sind, und daher wird Sicherheit in dieser Hinsicht nie möglich sein.

Parallel zu diesem Glauben besteht die Überzeugung, dass affektive Zustände mit physiologischen Körpersymptomen korreliert sind, was sie anfällig für die Erkennung macht. Wenn die „korrekten“ Korrelationen zwischen Körpersymptomen und inneren affektiven Zuständen entdeckt werden könnten, könnten alle Versuche der Täuschung umgangen werden und die „wahren“ affektiven Zustände einer Person könnten unabhängig vom Willen der Person, sie zu teilen, zugänglich gemacht werden.

Regulierung durch das AI-Gesetz

Im Jahr 2016 wurde das Wort „Emotion“ im GDPR kein einziges Mal erwähnt. Im Jahr 2021 finden wir es 10 Mal im AI-Gesetz und 20 Mal in seiner erneuerten und offiziellen Version 2024. Das AI-Gesetz konkretisiert die vorläufigen Ideen von 2021 und stellt fest, dass es „ernsthafte Bedenken hinsichtlich der wissenschaftlichen Grundlage von KI-Systemen gibt, die darauf abzielen, Emotionen zu identifizieren oder abzuleiten“, und klassifiziert ERTs in die Kategorie der „hochriskanten“ Technologien und verbietet deren Einsatz am Arbeitsplatz und in Bildungseinrichtungen. Laut dem AI-Gesetz sind ERTs definiert als „ein KI-System, das entwickelt wurde, um Emotionen oder Absichten natürlicher Personen anhand ihrer biometrischen Daten zu identifizieren oder abzuleiten“. „Emotionen“ bedeuten „Emotionen oder Absichten wie Glück, Traurigkeit, Wut, Überraschung, Ekel, Scham, Aufregung, Verachtung, Zufriedenheit und Belustigung“. Das Verbot und die Klassifizierung als „hochriskante“ Technologie wird durch die Identifizierung schwerwiegender Schlüsseldefizite gerechtfertigt, nämlich der begrenzten Zuverlässigkeit, fehlenden Spezifität und begrenzten Generalisierbarkeit dieser Systeme. Diese Defizite sind eine direkte Folge der aktuellen technischen Einschränkungen dieser Systeme und können Ergebnisse verzerren und zu ernsthaften Diskriminierungen führen.

Das AI-Gesetz stellt speziell fest, dass diese Verzerrungen besonders relevant sind, wenn es um Alter, Ethnie, Rasse, Geschlecht oder Behinderung geht. Daraus könnte geschlossen werden, dass ERTs angemessen behandelt wurden und dass ihre Regulierung zumindest in der EU in guten Händen ist.

Offene Fragen und zukünftige Herausforderungen

Während die Anerkennung der technischen Einschränkungen dieser Systeme definitiv ein Fortschritt in der Regulierung von KI im Allgemeinen und von ERT im Besonderen ist, lässt das Gesetz eine Reihe von Problemen offen, die anerkannt werden müssen. Zunächst macht das AI-Gesetz einen Unterschied zwischen der Identifizierung emotionaler Ausdrucksformen und der Ableitung des emotionalen Zustands eines Individuums aus seinen emotionalen Ausdrucksformen. Das Verbot gilt nur für Letzteres, sodass Ersteres – die Identifizierung emotionaler Ausdrucksformen – erlaubt ist.

Formell, wie McStay betont, verbietet es Unternehmen nur, explizit zu versuchen, Emotionen abzuleiten.

Unter dem Gesetz könnte ein Callcenter-Manager, der emotionale KI zur Überwachung nutzt, einen Mitarbeiter möglicherweise disziplinieren, wenn die KI sagt, dass er bei Anrufen grimmig klingt, solange es keine Schlussfolgerung gibt, dass er tatsächlich grimmig ist. „Jeder könnte diese Art von Technologie weiterhin verwenden, ohne eine explizite Schlussfolgerung über die inneren Emotionen einer Person zu ziehen und Entscheidungen zu treffen, die sie betreffen könnten“, sagt McStay.

Darüber hinaus basiert das Verbot – auf das explizite Ableiten der emotionalen Zustände von Individuen aus ihren emotionalen Ausdrucksformen – auf der Annahme, dass es ernsthafte technische Einschränkungen gibt, was besorgniserregend ist. Dies könnte in naher Zukunft problematisch sein, da die aktuellen Vorschriften die Benutzer nicht vor der Verwendung von ERTs schützen, sondern vor der Verwendung von voreingenommenen und fehlerhaften ERTs.

Während diese Regulierung möglicherweise die Implementierung vorübergehend gestoppt hat, ist diese Pause nur vorübergehend, da die Regulierung nicht vor der Verwendung von ERTs schützt, die als voll funktionsfähig angesehen werden. Angesichts des anhaltenden Interesses an der Erkennung und Vorhersage von Emotionen und der Tatsache, dass Forscher, private Unternehmen und Regierungen weiterhin versuchen, neue Wege zu finden, um Gedanken, affektive Zustände und physiologische Symptome zu korrelieren, ist es notwendig zu fragen, welche Konsequenzen – über Vorurteile und das Risiko von Diskriminierung hinaus – die Verwendung von (funktionalen) ERTs für Einzelpersonen und die Gesellschaft haben würde. Angesichts des derzeitigen Marktes für diese Art von Technologie ist es mehr als plausibel, dass Verbesserungen in beispielsweise multimodalen ERT mit Echtzeitüberwachung bald die technischen Herausforderungen überwinden werden. Die Art und Weise, wie das derzeitige Verbot gerechtfertigt ist, schwächt daher die EU-Regulierung zu ERT erheblich und öffnet die Tür zu legitimen Bedenken hinsichtlich des tatsächlichen Umfangs des Schutzes, den es angeblich bietet.

Nach der Informationsrevolution wird die Fähigkeit, menschliche Emotionen zu verstehen, jetzt als ein wesentlicher Bestandteil der Entwicklung von KI-Systemen angesehen, von der Mensch-Computer-Interaktion (HCI) bis hin zu Entscheidungsunterstützungssystemen (DSS). Aber wie wird diese fehlerhaft regulierte Kommodifizierung des affektiven Lebens das Leben der Menschen im Zeitalter der Datendoxa beeinflussen?

More Insights

EU-KI-Gesetz und seine Auswirkungen auf die Unternehmensführung

Dieses Forschungsprojekt untersucht, wie das EU-Gesetz über Künstliche Intelligenz (KI-Gesetz) eine systemische Transformation in den Rahmenbedingungen für Unternehmensführung und Verantwortung...

KI und Cybersecurity: Die Notwendigkeit von Verantwortung

Organisationen müssen sich mit der Realität auseinandersetzen, dass KI die Bedrohungslandschaft in der Cybersicherheit schnell verändert. Während KI dabei hilft, die Erkennung und Reaktion zu...

Intelligente Ansätze zur KI-Governance in Thailand

Thailand hat Prinzipien für die Gesetzgebung im Bereich künstliche Intelligenz (KI) entworfen, um ein KI-Ökosystem zu schaffen und die Einführung zu erweitern. Das Gesetz zielt darauf ab, Benutzern...

Texas führt umfassende KI-Gesetze mit spezifischen Gesundheitsvorschriften ein

Texas hat mit dem Inkrafttreten des House Bill (HB) 149 und des Senate Bill (SB) 1188 bedeutende Schritte zur Regulierung der künstlichen Intelligenz (KI) unternommen. Diese Gesetze zielen darauf ab...

Risiko intelligent managen: Neue KI-Governance-Lösungen von Riskonnect

Riskonnect hat eine neue Lösung für die KI-Governance eingeführt, die es Organisationen ermöglicht, KI verantwortungsbewusst zu nutzen und gleichzeitig Innovation, Aufsicht und Compliance in Einklang...

AI-Alignment und Governance: Neue Wege für die Zukunft

Gillian K. Hadfield wurde zur Bloomberg Distinguished Professorin für KI-Ausrichtung und Governance an der Johns Hopkins University ernannt. Sie konzentriert sich darauf, sicherzustellen, dass...

Der Brüsseler Trugschluss: Die globale Wirkung des EU KI-Gesetzes

Der EU AI Act wird zunehmend als symbolisches Modell statt als praktischer Leitfaden für Länder, die KI-Gesetzgebungen entwickeln, betrachtet. Diese Entwicklung führt dazu, dass der Einfluss des EU AI...

Der Brüsseler Trugschluss: Die globale Wirkung des EU KI-Gesetzes

Der EU AI Act wird zunehmend als symbolisches Modell statt als praktischer Leitfaden für Länder, die KI-Gesetzgebungen entwickeln, betrachtet. Diese Entwicklung führt dazu, dass der Einfluss des EU AI...