Neue Ethik der Zustimmung für KI im Wohlbefinden am Arbeitsplatz

Kommentar: Warum KI für das Wohlbefinden am Arbeitsplatz eine neue Ethik der Zustimmung benötigt

In den USA und weltweit investieren Arbeitgeber – darunter Unternehmen, Gesundheitssysteme, Universitäten und gemeinnützige Organisationen – zunehmend in das Wohlbefinden der Mitarbeiter. Der globale Markt für betriebliche Gesundheitsförderung erreichte 2024 einen Umsatz von 53,5 Milliarden Dollar, wobei Nordamerika die führende Rolle bei der Einführung spielt. Betriebliche Gesundheitsprogramme nutzen nun KI, um Stress zu überwachen, das Risiko von Burnout zu verfolgen oder personalisierte Interventionen zu empfehlen.

Anbieter von KI-gestützten Wellness-Plattformen, Chatbots und Tools zur Stressverfolgung expandieren rasant. Chatbots wie Woebot und Wysa werden zunehmend in Programme zur Mitarbeitergesundheit integriert.

Vor kurzem hat eine indische Gesundheitsplattform eine Partnerschaft mit einer Finanztechnologie-Firma geschlossen, um KI-gesteuerte Unternehmensgesundheitsversorgung direkt in Gehaltssysteme zu integrieren. Dies bettet Wellness-Analysen in die alltägliche Beschäftigungsinfrastruktur ein, anstatt die psychische Unterstützung als separate Leistung zu behandeln. Ähnliche Implementierungen entstehen in verschiedenen Sektoren.

Obwohl keine öffentlichen Daten zuverlässig quantifizieren, wie viele Arbeitnehmer KI-Wellness-Tools nutzen, deuten das Marktwachstum und die Vielzahl der Anbieter darauf hin, dass diese Systeme bereits Millionen von Mitarbeitern erreichen. Der Markt für chatbot-basierte Apps zur psychischen Gesundheit wird allein für 2025 auf 2,1 Milliarden Dollar geschätzt, mit einer prognostizierten Steigerung auf 7,5 Milliarden Dollar bis 2034.

Potenzial und Risiken von KI im Wohlbefinden

Beobachter berichten, dass KI das Wohlbefinden am Arbeitsplatz potenziell verbessern kann, indem sie Muster von Müdigkeit analysiert, Mikropausen plant und frühe Anzeichen von Überlastung erkennt. Tools wie Virtuosis AI können Sprach- und Sprechmuster während Besprechungen analysieren, um Stress und emotionale Belastung der Mitarbeiter zu erkennen.

Auf den ersten Blick versprechen diese Technologien Unterstützung, Prävention und Fürsorge.

Stellen Sie sich vor, Ihr Vorgesetzter fragt: „Möchten Sie dieses neue KI-Tool ausprobieren, das hilft, Stress und Wohlbefinden zu überwachen? Natürlich völlig optional.“ Das Angebot klingt unterstützend, sogar großzügig. Doch wenn Sie wie die meisten Mitarbeiter sind, fühlen Sie sich in Wirklichkeit nicht wirklich frei, abzulehnen. Zustimmung, die in Anwesenheit von Macht angeboten wird, ist niemals nur Zustimmung – sie ist eine Aufführung, oft eine stillschweigende Verpflichtung. Und während KI-Wellness-Tools tiefer in die Arbeitsplätze eindringen, wird diese Illusion der Wahl noch fragiler.

Die Risiken sind keine hypothetischen mehr: Ein Unternehmen wurde öffentlich dafür kritisiert, wie Wellness-Überwachung die Produktivität verknüpft, was Bedenken aufwirft, wie die Wohlfühl-Rhetorik die Überwachung rechtfertigen kann.

Die ethische Herausforderung der informierten Zustimmung

Im Mittelpunkt dieser Spannung steht das Ideal der informierten Zustimmung, das seit Jahrzehnten das ethische Rückgrat der Datensammlung bildet. Wenn Menschen informiert werden, welche Daten gesammelt werden, wie sie verwendet werden und welche Risiken sie bergen, wird ihre Zustimmung als sinnvoll erachtet. Doch dieses Modell versagt, wenn es auf KI-gestützte Wellness-Tools angewendet wird.

Erstens geht informierte Zustimmung von einem einmaligen und statischen Moment der Zustimmung aus, während KI-Systeme kontinuierlich arbeiten. Ein Mitarbeiter kann einmal „ja“ klicken, aber das System sammelt das ganze Tagesverhalten und physiologische Signale, von denen keines vollständig vorhersehbar war, als der Mitarbeiter zustimmte. Es scheint unfair, dass Zustimmung eine einmalige Handlung ist, während die Datensammlung unbegrenzt fortgesetzt wird.

Zweitens sind die Informationen, die Arbeitnehmer während der Zustimmung erhalten, oft unzureichend, vage oder zu komplex. Datenschutzhinweise versprechen, dass Daten „aggregiert“, „anonymisiert“ oder zur „Verbesserung der Beteiligung“ verwendet werden – Formulierungen, die die Realität verschleiern, dass KI-Systeme Rückschlüsse auf Stimmung, Stress oder Unengagement ziehen. Selbst wenn die Offenlegungen technisch korrekt sind, sind sie zu komplex, um von den Arbeitnehmern sinnvoll verstanden zu werden. Die Arbeitnehmer stimmen inmitten von Machtungleichheiten und sozio-organisatorischen Komplexitäten zu.

Und dann gibt es die Zustimmungsmüdigkeit. Arbeitnehmer sehen sich ständigen Aufforderungen gegenüber – Aktualisierungen der Richtlinien, Cookie-Banner, neue App-Berechtigungen. Schließlich könnte man einfach „ja“ klicken, um weiterarbeiten zu können. Zustimmung wird eher zu einem Reflex oder einer Bequemlichkeit, als zu einer bewussten Wahl.

Der Weg zu bedeutungsvoller Zustimmung

Es ist sicher, dass am Arbeitsplatz bedeutende Fortschritte zur Unterstützung des Wohlbefindens gemacht wurden, und KI kann tatsächlich helfen, wenn sie durchdacht implementiert wird. Solche Fortschritte in den KI-Tools für das Wohlbefinden am Arbeitsplatz sind entscheidend. Doch selbst mit erweiterten strukturellen Unterstützungen und vielversprechenden Technologien hat sich die Denkweise über die Arbeit und die Erwartungen der Arbeitnehmer nicht im gleichen Maße weiterentwickelt – was die Erfahrungen mit den Tools für das Wohlbefinden prägt und oft dazu führt, dass sich die Arbeitnehmer gezwungen fühlen, „ja“ zu sagen, selbst wenn es als „optional“ formuliert ist.

Selbst perfekte Zustimmungshinweise können die Machtverhältnisse am Arbeitsplatz nicht überwinden. Arbeitnehmer wissen, dass Vorgesetzte Bewertungen, Beförderungen und Arbeitslasten kontrollieren. Das Ablehnen eines „freiwilligen“ Wohlbefindens-Tools kann riskant erscheinen, selbst wenn die Konsequenzen unausgesprochen bleiben. Zustimmung wird zu einem Spiegelbild der Arbeitsplatzpolitik und nicht zu einem Ausdruck persönlicher Autonomie.

Das FRIES-Modell der positiven Zustimmung – Freely given, Reversible, Informed, Enthusiastic, and Specific – bietet einen scharfen Blickwinkel zur Bewertung des Einsatzes von KI am Arbeitsplatz. Zustimmung ist nicht freigegeben, wenn das Ablehnen riskant erscheint. Sie ist nicht umkehrbar, wenn ein späterer Rückzug eine Prüfung nach sich zieht. Sie ist nicht informiert, wenn KI-Interpretationen undurchsichtig oder sich entwickelnd sind. Sie ist selten begeistert; viele Arbeitnehmer sagen ja, um negative Annahmen zu vermeiden. Und sie ist fast nie spezifisch; das Zustimmen zu einer Funktion autorisiert oft eine viel umfassendere Datensammlung, als die Arbeitnehmer realisieren.

In eigenen Forschungen zu Technologien für das Wohlbefinden am Arbeitsplatz haben Arbeitnehmer betont, dass bedeutungsvolle Zustimmung nicht nur technologische Änderungen erfordert, sondern auch Änderungen an den Richtlinien und organisatorischen Praktiken, die sie umgeben – was unterstreicht, dass Zustimmung am Arbeitsplatz ein strukturelles Problem ist, das sozio-technische Lösungen erfordert und nicht nur bessere Offenlegungsbildschirme.

Wenn Arbeitgeber bedeutungsvolle Zustimmung wünschen, müssen sie über die Einhaltung von Kontrollkästchen hinausgehen und Bedingungen schaffen, unter denen affirmative und kontinuierliche Zustimmung tatsächlich möglich ist. Die Teilnahme muss wirklich freiwillig sein. Das Abmelden darf keine sozialen oder beruflichen Sanktionen nach sich ziehen – weder ausdrücklich noch implizit. Datenpraktiken müssen transparent und überprüfbar sein. Am wichtigsten ist, dass das Wohlbefinden in der Unternehmenskultur verankert sein muss – nicht in der Hoffnung, dass ein Algorithmus strukturelle Probleme oder unrealistische Erwartungen lösen kann.

Die eigentliche Herausforderung besteht nicht darin, KI zu perfektionieren, die vorgibt, sich um die Arbeitnehmer zu kümmern, sondern darin, Arbeitsplätze zu schaffen, an denen Fürsorge bereits verankert ist – wo Zustimmung real ist, Autonomie respektiert wird und Technologie die Menschen unterstützt.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...