Transparenz und Daten: HR im Zeitalter des EU AI-Gesetzes

Transparenz, gute Daten und Dokumentation: Wie HR das EU AI-Gesetz navigieren kann

Mit der Einbeziehung von Arbeitsplatz-KI unter die verbotenen Anwendungen des EU-Gesetzes über künstliche Intelligenz (AI Act) sind die Personalabteilungen nun gefordert, ihre verschiedenen KI-Anwendungen zu überdenken, um den Compliance-Anforderungen gerecht zu werden.

KI, die im Beschäftigungs- und Arbeitsumfeld eingesetzt wird, gilt als „hochriskant“ und unterliegt somit rechtlichen Bestimmungen, wenn sie die Gesundheit und Sicherheit oder die Beschäftigung einer Person betreffen kann. Ihr Einsatz in emotionalen Erkennungssystemen am Arbeitsplatz ist verboten.

Nicht alle HR-zentrierten KI-Einsätze werden als hochriskant angesehen, wie Cian O’Brien, der stellvertretende Datenschutzkommissar der irischen Datenschutzkommission, feststellt. Um diese Unterscheidung zu treffen, sollten Unternehmen in Betracht ziehen, wie die Regulierungsbehörden KI bereits durch bestehende Vorschriften, insbesondere die EU-Datenschutz-Grundverordnung (DSGVO), angegangen sind.

Die Datenschutzbehörden nehmen die Verpflichtung zur Durchführung von Datenschutz-Folgenabschätzungen (DPIAs) im Kontext von KI-Systemen sehr ernst. Dies wurde während einer Podiumsdiskussion auf der IAPP AI Governance Global Europe 2025 in Dublin deutlich.

Seien Sie so transparent wie möglich

Die Offenheit darüber, warum Daten gesammelt werden und wofür sie verwendet werden, kann viele potenzielle Probleme frühzeitig klären. Die Transparenz hilft, das Argument für legitime Interessen selbst bei einer niedrigriskanten KI-Nutzung zu untermauern. Diese Klarheit unterstützt auch das Konzept des freiwillig erteilten Einvernehmens für die Datenerhebung, ein Grundpfeiler der DSGVO.

Es gibt Präzedenzfälle, die dies belegen, wie die Entscheidung des Nanterre-Gerichts in Frankreich, dass ein Unternehmen den Sozial- und Wirtschaftsausschuss nicht ordnungsgemäß konsultiert hatte, bevor KI-Tools in größerem Umfang eingeführt wurden. Der Oberste Gerichtshof ordnete daraufhin die Streichung des gesamten KI-Einsatzes an und forderte das Unternehmen auf, die Arbeitnehmervertretung einzubeziehen und zu informieren.

Denken Sie sorgfältig über Anonymisierung nach

Das Entfernen identifizierbarer Merkmale aus den Trainingsdaten eines KI-Modells wird als eine Möglichkeit angesehen, Datenschutz zu gewährleisten. Allerdings kann die Art und Weise, wie dies geschieht, Raum für Re-Identifizierung lassen, was die Verarbeitung anfällig für Überprüfungen macht.

Die Anonymisierung ermöglicht die dauerhafte Entfernung von Identifikatoren, doch Kamp warnt, dass KI die wahre Anonymisierung für HR-Abteilungen noch herausfordernder machen könnte. Unternehmen müssen sicherstellen, dass die Daten, die sie in der KI verwenden, vertraulich bleiben und skeptisch gegenüber den Behauptungen der Anbieter über nicht zurückverfolgbare Informationen sein.

„Eine gute Geschichte“

Nachdem entschieden wurde, ob ein bestimmter KI-Einsatz als hochriskant gilt und die Trainingsdaten ausreichend geschützt sind, müssen die HR-Abteilungen einen klaren Fall dafür darlegen, wie die Entscheidungen zur Nutzung einer Anwendung getroffen wurden. Die nachträgliche Erklärung eines Ansatzes ist gemäß der DSGVO nicht ausreichend, da zeitnahe Dokumente erforderlich sind, um die Begründung zu rechtfertigen.

Der AI Act verlangt zudem, dass hochriskante Systeme über eine Dokumentation verfügen, die beschreibt, wie sie funktionieren und welche Risiken sie darstellen können. O’Brien hebt hervor, dass DPIAs die besten Mittel sind, um einen Anwendungsfall zu unterstützen, da sie den Regulierungsbehörden helfen, alle Facetten des Entscheidungsprozesses zu verstehen.

Insgesamt zeigt sich, dass Transparenz, gute Daten und eine sorgfältige Dokumentation unerlässlich sind, um die Herausforderungen des EU AI-Gesetzes im HR-Bereich zu meistern.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...