Transparenz und Daten: HR im Zeitalter des EU AI-Gesetzes

Transparenz, gute Daten und Dokumentation: Wie HR das EU AI-Gesetz navigieren kann

Mit der Einbeziehung von Arbeitsplatz-KI unter die verbotenen Anwendungen des EU-Gesetzes über künstliche Intelligenz (AI Act) sind die Personalabteilungen nun gefordert, ihre verschiedenen KI-Anwendungen zu überdenken, um den Compliance-Anforderungen gerecht zu werden.

KI, die im Beschäftigungs- und Arbeitsumfeld eingesetzt wird, gilt als „hochriskant“ und unterliegt somit rechtlichen Bestimmungen, wenn sie die Gesundheit und Sicherheit oder die Beschäftigung einer Person betreffen kann. Ihr Einsatz in emotionalen Erkennungssystemen am Arbeitsplatz ist verboten.

Nicht alle HR-zentrierten KI-Einsätze werden als hochriskant angesehen, wie Cian O’Brien, der stellvertretende Datenschutzkommissar der irischen Datenschutzkommission, feststellt. Um diese Unterscheidung zu treffen, sollten Unternehmen in Betracht ziehen, wie die Regulierungsbehörden KI bereits durch bestehende Vorschriften, insbesondere die EU-Datenschutz-Grundverordnung (DSGVO), angegangen sind.

Die Datenschutzbehörden nehmen die Verpflichtung zur Durchführung von Datenschutz-Folgenabschätzungen (DPIAs) im Kontext von KI-Systemen sehr ernst. Dies wurde während einer Podiumsdiskussion auf der IAPP AI Governance Global Europe 2025 in Dublin deutlich.

Seien Sie so transparent wie möglich

Die Offenheit darüber, warum Daten gesammelt werden und wofür sie verwendet werden, kann viele potenzielle Probleme frühzeitig klären. Die Transparenz hilft, das Argument für legitime Interessen selbst bei einer niedrigriskanten KI-Nutzung zu untermauern. Diese Klarheit unterstützt auch das Konzept des freiwillig erteilten Einvernehmens für die Datenerhebung, ein Grundpfeiler der DSGVO.

Es gibt Präzedenzfälle, die dies belegen, wie die Entscheidung des Nanterre-Gerichts in Frankreich, dass ein Unternehmen den Sozial- und Wirtschaftsausschuss nicht ordnungsgemäß konsultiert hatte, bevor KI-Tools in größerem Umfang eingeführt wurden. Der Oberste Gerichtshof ordnete daraufhin die Streichung des gesamten KI-Einsatzes an und forderte das Unternehmen auf, die Arbeitnehmervertretung einzubeziehen und zu informieren.

Denken Sie sorgfältig über Anonymisierung nach

Das Entfernen identifizierbarer Merkmale aus den Trainingsdaten eines KI-Modells wird als eine Möglichkeit angesehen, Datenschutz zu gewährleisten. Allerdings kann die Art und Weise, wie dies geschieht, Raum für Re-Identifizierung lassen, was die Verarbeitung anfällig für Überprüfungen macht.

Die Anonymisierung ermöglicht die dauerhafte Entfernung von Identifikatoren, doch Kamp warnt, dass KI die wahre Anonymisierung für HR-Abteilungen noch herausfordernder machen könnte. Unternehmen müssen sicherstellen, dass die Daten, die sie in der KI verwenden, vertraulich bleiben und skeptisch gegenüber den Behauptungen der Anbieter über nicht zurückverfolgbare Informationen sein.

„Eine gute Geschichte“

Nachdem entschieden wurde, ob ein bestimmter KI-Einsatz als hochriskant gilt und die Trainingsdaten ausreichend geschützt sind, müssen die HR-Abteilungen einen klaren Fall dafür darlegen, wie die Entscheidungen zur Nutzung einer Anwendung getroffen wurden. Die nachträgliche Erklärung eines Ansatzes ist gemäß der DSGVO nicht ausreichend, da zeitnahe Dokumente erforderlich sind, um die Begründung zu rechtfertigen.

Der AI Act verlangt zudem, dass hochriskante Systeme über eine Dokumentation verfügen, die beschreibt, wie sie funktionieren und welche Risiken sie darstellen können. O’Brien hebt hervor, dass DPIAs die besten Mittel sind, um einen Anwendungsfall zu unterstützen, da sie den Regulierungsbehörden helfen, alle Facetten des Entscheidungsprozesses zu verstehen.

Insgesamt zeigt sich, dass Transparenz, gute Daten und eine sorgfältige Dokumentation unerlässlich sind, um die Herausforderungen des EU AI-Gesetzes im HR-Bereich zu meistern.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...