Kommentar: Warum KI für das Wohlbefinden am Arbeitsplatz eine neue Ethik der Zustimmung benötigt
In den USA und weltweit investieren Arbeitgeber – darunter Unternehmen, Gesundheitssysteme, Universitäten und gemeinnützige Organisationen – zunehmend in das Wohlbefinden der Mitarbeiter. Der globale Markt für betriebliche Gesundheitsförderung erreichte 2024 einen Umsatz von 53,5 Milliarden Dollar, wobei Nordamerika die führende Rolle bei der Einführung spielt. Betriebliche Gesundheitsprogramme nutzen nun KI, um Stress zu überwachen, das Risiko von Burnout zu verfolgen oder personalisierte Interventionen zu empfehlen.
Anbieter von KI-gestützten Wellness-Plattformen, Chatbots und Tools zur Stressverfolgung expandieren rasant. Chatbots wie Woebot und Wysa werden zunehmend in Programme zur Mitarbeitergesundheit integriert.
Vor kurzem hat eine indische Gesundheitsplattform eine Partnerschaft mit einer Finanztechnologie-Firma geschlossen, um KI-gesteuerte Unternehmensgesundheitsversorgung direkt in Gehaltssysteme zu integrieren. Dies bettet Wellness-Analysen in die alltägliche Beschäftigungsinfrastruktur ein, anstatt die psychische Unterstützung als separate Leistung zu behandeln. Ähnliche Implementierungen entstehen in verschiedenen Sektoren.
Obwohl keine öffentlichen Daten zuverlässig quantifizieren, wie viele Arbeitnehmer KI-Wellness-Tools nutzen, deuten das Marktwachstum und die Vielzahl der Anbieter darauf hin, dass diese Systeme bereits Millionen von Mitarbeitern erreichen. Der Markt für chatbot-basierte Apps zur psychischen Gesundheit wird allein für 2025 auf 2,1 Milliarden Dollar geschätzt, mit einer prognostizierten Steigerung auf 7,5 Milliarden Dollar bis 2034.
Potenzial und Risiken von KI im Wohlbefinden
Beobachter berichten, dass KI das Wohlbefinden am Arbeitsplatz potenziell verbessern kann, indem sie Muster von Müdigkeit analysiert, Mikropausen plant und frühe Anzeichen von Überlastung erkennt. Tools wie Virtuosis AI können Sprach- und Sprechmuster während Besprechungen analysieren, um Stress und emotionale Belastung der Mitarbeiter zu erkennen.
Auf den ersten Blick versprechen diese Technologien Unterstützung, Prävention und Fürsorge.
Stellen Sie sich vor, Ihr Vorgesetzter fragt: „Möchten Sie dieses neue KI-Tool ausprobieren, das hilft, Stress und Wohlbefinden zu überwachen? Natürlich völlig optional.“ Das Angebot klingt unterstützend, sogar großzügig. Doch wenn Sie wie die meisten Mitarbeiter sind, fühlen Sie sich in Wirklichkeit nicht wirklich frei, abzulehnen. Zustimmung, die in Anwesenheit von Macht angeboten wird, ist niemals nur Zustimmung – sie ist eine Aufführung, oft eine stillschweigende Verpflichtung. Und während KI-Wellness-Tools tiefer in die Arbeitsplätze eindringen, wird diese Illusion der Wahl noch fragiler.
Die Risiken sind keine hypothetischen mehr: Ein Unternehmen wurde öffentlich dafür kritisiert, wie Wellness-Überwachung die Produktivität verknüpft, was Bedenken aufwirft, wie die Wohlfühl-Rhetorik die Überwachung rechtfertigen kann.
Die ethische Herausforderung der informierten Zustimmung
Im Mittelpunkt dieser Spannung steht das Ideal der informierten Zustimmung, das seit Jahrzehnten das ethische Rückgrat der Datensammlung bildet. Wenn Menschen informiert werden, welche Daten gesammelt werden, wie sie verwendet werden und welche Risiken sie bergen, wird ihre Zustimmung als sinnvoll erachtet. Doch dieses Modell versagt, wenn es auf KI-gestützte Wellness-Tools angewendet wird.
Erstens geht informierte Zustimmung von einem einmaligen und statischen Moment der Zustimmung aus, während KI-Systeme kontinuierlich arbeiten. Ein Mitarbeiter kann einmal „ja“ klicken, aber das System sammelt das ganze Tagesverhalten und physiologische Signale, von denen keines vollständig vorhersehbar war, als der Mitarbeiter zustimmte. Es scheint unfair, dass Zustimmung eine einmalige Handlung ist, während die Datensammlung unbegrenzt fortgesetzt wird.
Zweitens sind die Informationen, die Arbeitnehmer während der Zustimmung erhalten, oft unzureichend, vage oder zu komplex. Datenschutzhinweise versprechen, dass Daten „aggregiert“, „anonymisiert“ oder zur „Verbesserung der Beteiligung“ verwendet werden – Formulierungen, die die Realität verschleiern, dass KI-Systeme Rückschlüsse auf Stimmung, Stress oder Unengagement ziehen. Selbst wenn die Offenlegungen technisch korrekt sind, sind sie zu komplex, um von den Arbeitnehmern sinnvoll verstanden zu werden. Die Arbeitnehmer stimmen inmitten von Machtungleichheiten und sozio-organisatorischen Komplexitäten zu.
Und dann gibt es die Zustimmungsmüdigkeit. Arbeitnehmer sehen sich ständigen Aufforderungen gegenüber – Aktualisierungen der Richtlinien, Cookie-Banner, neue App-Berechtigungen. Schließlich könnte man einfach „ja“ klicken, um weiterarbeiten zu können. Zustimmung wird eher zu einem Reflex oder einer Bequemlichkeit, als zu einer bewussten Wahl.
Der Weg zu bedeutungsvoller Zustimmung
Es ist sicher, dass am Arbeitsplatz bedeutende Fortschritte zur Unterstützung des Wohlbefindens gemacht wurden, und KI kann tatsächlich helfen, wenn sie durchdacht implementiert wird. Solche Fortschritte in den KI-Tools für das Wohlbefinden am Arbeitsplatz sind entscheidend. Doch selbst mit erweiterten strukturellen Unterstützungen und vielversprechenden Technologien hat sich die Denkweise über die Arbeit und die Erwartungen der Arbeitnehmer nicht im gleichen Maße weiterentwickelt – was die Erfahrungen mit den Tools für das Wohlbefinden prägt und oft dazu führt, dass sich die Arbeitnehmer gezwungen fühlen, „ja“ zu sagen, selbst wenn es als „optional“ formuliert ist.
Selbst perfekte Zustimmungshinweise können die Machtverhältnisse am Arbeitsplatz nicht überwinden. Arbeitnehmer wissen, dass Vorgesetzte Bewertungen, Beförderungen und Arbeitslasten kontrollieren. Das Ablehnen eines „freiwilligen“ Wohlbefindens-Tools kann riskant erscheinen, selbst wenn die Konsequenzen unausgesprochen bleiben. Zustimmung wird zu einem Spiegelbild der Arbeitsplatzpolitik und nicht zu einem Ausdruck persönlicher Autonomie.
Das FRIES-Modell der positiven Zustimmung – Freely given, Reversible, Informed, Enthusiastic, and Specific – bietet einen scharfen Blickwinkel zur Bewertung des Einsatzes von KI am Arbeitsplatz. Zustimmung ist nicht freigegeben, wenn das Ablehnen riskant erscheint. Sie ist nicht umkehrbar, wenn ein späterer Rückzug eine Prüfung nach sich zieht. Sie ist nicht informiert, wenn KI-Interpretationen undurchsichtig oder sich entwickelnd sind. Sie ist selten begeistert; viele Arbeitnehmer sagen ja, um negative Annahmen zu vermeiden. Und sie ist fast nie spezifisch; das Zustimmen zu einer Funktion autorisiert oft eine viel umfassendere Datensammlung, als die Arbeitnehmer realisieren.
In eigenen Forschungen zu Technologien für das Wohlbefinden am Arbeitsplatz haben Arbeitnehmer betont, dass bedeutungsvolle Zustimmung nicht nur technologische Änderungen erfordert, sondern auch Änderungen an den Richtlinien und organisatorischen Praktiken, die sie umgeben – was unterstreicht, dass Zustimmung am Arbeitsplatz ein strukturelles Problem ist, das sozio-technische Lösungen erfordert und nicht nur bessere Offenlegungsbildschirme.
Wenn Arbeitgeber bedeutungsvolle Zustimmung wünschen, müssen sie über die Einhaltung von Kontrollkästchen hinausgehen und Bedingungen schaffen, unter denen affirmative und kontinuierliche Zustimmung tatsächlich möglich ist. Die Teilnahme muss wirklich freiwillig sein. Das Abmelden darf keine sozialen oder beruflichen Sanktionen nach sich ziehen – weder ausdrücklich noch implizit. Datenpraktiken müssen transparent und überprüfbar sein. Am wichtigsten ist, dass das Wohlbefinden in der Unternehmenskultur verankert sein muss – nicht in der Hoffnung, dass ein Algorithmus strukturelle Probleme oder unrealistische Erwartungen lösen kann.
Die eigentliche Herausforderung besteht nicht darin, KI zu perfektionieren, die vorgibt, sich um die Arbeitnehmer zu kümmern, sondern darin, Arbeitsplätze zu schaffen, an denen Fürsorge bereits verankert ist – wo Zustimmung real ist, Autonomie respektiert wird und Technologie die Menschen unterstützt.