KI und Jobanzeigen: Ontarios neue Anforderungen

AI und Stellenangebote: Navigieren durch die bevorstehenden Anforderungen in Ontario

Am 21. März erhielt Ontarios Gesetzesentwurf 149, Working for Workers Four Act, 2024, die Royal Assent. Dieses Gesetz brachte bedeutende Änderungen zum Employment Standards Act von 2000 mit sich, einschließlich einer Verpflichtung für Arbeitgeber, den Einsatz von Künstlicher Intelligenz (KI) in öffentlich ausgeschriebenen Stellenangeboten offenzulegen. Ab dem 1. Januar 2026 müssen Arbeitgeber mit mehr als 25 Beschäftigten in ihren Stellenangeboten angeben, ob KI zur Sichtung, Bewertung oder Auswahl von Bewerbern eingesetzt wird.

Während sich Arbeitgeber auf diese Änderungen vorbereiten, sollte die Einhaltung der Anforderungen im Einklang mit breiteren rechtlichen und ethischen Standards stehen. Transparenz und Fairness sind wichtige Überlegungen, die mit der verantwortungsvollen Nutzung von KI verbunden sind, und die verpflichtenden Offenlegungsanforderungen Ontarios berücksichtigen diese Aspekte. Arbeitgeber können das Risiko verringern, gegen die Offenlegungsanforderungen zu verstoßen, während sie gleichzeitig ein Engagement für ethische Einstellungspraktiken in einer zunehmend automatisierten Landschaft demonstrieren.

Offenlegungsanforderungen für KI gemäß Gesetzesentwurf 149

Der Gesetzesentwurf 149 ändert das ESA durch die Einführung mehrerer neuer Anforderungen, einschließlich solcher, die sich auf KI beziehen. KI wird dabei breit definiert als „ein maschinenbasiertes System, das für explizite oder implizite Ziele aus den empfangenen Eingaben ableitet, um Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen zu generieren, die die physische oder virtuelle Umgebung beeinflussen können.“

Im Hinblick auf KI sieht der Gesetzesentwurf 149 vor, dass Arbeitgeber offenlegen müssen, ob KI zur Bewertung oder Auswahl von Kandidaten in öffentlich veröffentlichten Stellenanzeigen verwendet wird.

Geltungsbereich und Ausnahmen

Diese Regeln gelten für externe Stellenangebote, die öffentlich zugänglich sind. Bemerkenswerterweise sind folgende Ausnahmen im Gesetzesentwurf 149 vermerkt:

  • Interne Ausschreibungen (nur für aktuelle Mitarbeiter).
  • Allgemeine „Hilfe gesucht“-Schilder.
  • Rekrutierung für Arbeiten außerhalb Ontarios.

Arbeitgeber mit weniger als 25 Beschäftigten unterliegen derzeit nicht diesen Verpflichtungen.

Rechtliche und menschenrechtliche Überlegungen

Automatisierte Entscheidungsfindung wird zunehmend von Organisationen genutzt, um Top-Talente zu gewinnen, den Einstellungsprozess zu optimieren oder bei Leistungsbewertungen zu helfen. Dennoch bleiben potenzielle Auswirkungen von algorithmischer Voreingenommenheit und die Notwendigkeit von Transparenz wichtige Überlegungen zur fairen und verantwortungsvollen Nutzung von KI.

Die Ontario Human Rights Commission (OHRC) hat die Nutzung von KI in der Beschäftigung als wachsendes Risiko identifiziert und auf die Möglichkeit indirekter Diskriminierung durch algorithmische Voreingenommenheit hingewiesen. Beispielsweise könnten KI-Tools, die auf historischen Einstellungsdaten trainiert wurden, unfairen Anforderungen und voreingenommener Sprache in Stellenanzeigen nachahmen. Dies könnte unbeabsichtigt bestimmte demografische Gruppen begünstigen und andere mit bestimmten Merkmalen ausschließen und somit möglicherweise Rechte gemäß dem Ontario Human Rights Code verletzen.

Dies bedeutet, dass die Nichterfüllung der Offenlegungsanforderungen für KI gemäß Gesetzesentwurf 149 nicht nur die Durchsetzung des ESA auslösen könnte, sondern auch Menschenrechtsbeschwerden gemäß dem Code, insbesondere wenn KI-gesteuerte Entscheidungen zu diskriminierenden Ergebnissen führen.

Praktische Strategien zur Risikominderung

Obwohl eine Verordnung, die den Gesetzesentwurf 149 begleitete, Ende 2024 veröffentlicht wurde und eine Definition von KI enthält, klärt sie nicht, welche spezifischen Tools, Systeme oder Prozesse unter diese Definition fallen und somit die Offenlegungsanforderungen für öffentlich ausgeschriebene Stellenangebote auslösen würden.

Die derzeitige Unklarheit darüber, was den Einsatz von KI in Stellenangeboten gemäß Gesetzesentwurf 149 ausmacht, könnte zu inkonsistenten Meldungen führen (entweder Unterberichterstattung oder Überberichterstattung), was unbeabsichtigt das Risiko der Nichteinhaltung erhöhen könnte. In Ermangelung weiterer Leitlinien von der Regierung Ontarios und angesichts der erwarteten Offenlegungsanforderungen für KI, die im kommenden Januar in Kraft treten, sollten Arbeitgeber die intervenierenden Monate nutzen, um sich auf die Einhaltung vorzubereiten und die folgenden Schritte in Betracht zu ziehen:

  • Durchführung algorithmischer Auswirkungenbewertungen: Regelmäßige Prüfungen können voreingenommene Ergebnisse oder Datengaps in KI-Tools identifizieren. Arbeitgeber sollten die Entscheidungslogik von KI dokumentieren und auf diskriminierende Muster testen.
  • Entwicklung transparenter Offenlegungspraktiken: Während Gesetzesentwurf 149 die genaue Sprache zur Erfüllung der Offenlegungsanforderungen für KI nicht klarstellt, sollten Stellenangebote vorsorglich deutlich angeben, wie KI im Rekrutierungs- und Onboarding-Prozess eingesetzt wird und in welchen Phasen.
  • Integration menschlicher Aufsicht: Arbeitgeber, die bereits KI nutzen, sollten einen „Mensch-in-der-Schleife“-Ansatz für Einstellungspraktiken in Betracht ziehen. Dies hilft sicherzustellen, dass endgültige Einstellungsentscheidungen von HR-Fachleuten überprüft und kontextualisiert werden, um eine übermäßige Abhängigkeit von algorithmischen Urteilen zu vermeiden und unerwünschte Ergebnisse zu verhindern (z. B. unbeabsichtigtes Ausschließen bestimmter demografischer Gruppen aus dem Bewerberpool aufgrund schlechter Trainingsdaten, auf die sich KI-Modelle stützen).
  • Schulung von HR- und Rechtsteams: Die Mitarbeiter sollten ein klares Verständnis dafür haben, wie KI von ihren Organisationen eingesetzt wird, sowie ein fundiertes Wissen über ihre rechtlichen Offenlegungs- und Datenschutzverpflichtungen. Dies umfasst die Überprüfung und Prüfung bestehender Praktiken und Richtlinien sowie die Durchführung von Lückenanalysen zur Vorbereitung auf neue Verpflichtungen gemäß Gesetzesentwurf 149.
  • Überprüfung von Anbieterverträgen: Wenn ein Arbeitgeber Drittanbieter-KI-Lösungen zur Unterstützung bei Einstellungen verwendet, wäre es ratsam zu bestätigen, dass solche Lösungen mit Gesetzesentwurf 149 konform sind, und gegebenenfalls Compliance-Lücken durch vertragliche Änderungen zu beheben.

Wichtige Erkenntnisse

Ontarios Gesetzesentwurf 149 führt neue Offenlegungsanforderungen für KI ein, die die wachsende Rolle des Einsatzes von KI in Einstellungspraktiken widerspiegeln. Da diese Regeln in Kraft treten, sollten Unternehmen beginnen, zu bewerten, wie KI in ihren Rekrutierungsprozessen eingesetzt wird, und Schritte unternehmen, um sich an die sich entwickelnden rechtlichen Erwartungen anzupassen. Während der Fokus auf Transparenz und Fairness liegt, haben diese Prinzipien nun rechtliche Relevanz in den Bereichen Beschäftigung, Menschenrechte und Datenschutz. Dies ist besonders wichtig im Kontext einer Gatekeeping-Funktion wie der Einstellung von Mitarbeitern. Arbeitgeber müssen sich der Risiken bewusst bleiben und Maßnahmen ergreifen, um gegen die Risiken vorzugehen, die mit KI-Systemen verbunden sind, die erhebliche negative Auswirkungen auf Einzelpersonen haben können, sei es durch Handlungen oder Unterlassungen. Eine frühzeitige Vorbereitung kann Organisationen helfen, diese Veränderungen reibungslos und verantwortungsbewusst zu navigieren.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...