Einhaltung des EU AI-Gesetzes: Ein neuer Weg für Unternehmen

Compliance mit dem EU AI Act

Die Einführung des EU AI Act markiert einen bedeutenden Schritt in der Regulierung von Künstlicher Intelligenz (KI) in Europa. Am 2. Februar 2025 traten die ersten fünf Artikel des Gesetzes in Kraft, was bedeutet, dass Unternehmen, die KI verwenden oder entwickeln, nun regulatorischen Anforderungen unterliegen.

Artikel 4 des EU AI Act

Artikel 4 legt fest, dass alle Anbieter und Betreiber von KI-Systemen Maßnahmen ergreifen müssen, um ein ausreichendes Niveau an KI-Kompetenz bei ihren Mitarbeitern zu gewährleisten. Dies umfasst die Berücksichtigung ihrer technischen Kenntnisse, Erfahrungen, Ausbildungen und des Kontextes, in dem die KI-Systeme eingesetzt werden.

Die Definition von „KI-Kompetenz“ besagt, dass es sich um Fähigkeiten und Kenntnisse handelt, die es den Beteiligten ermöglichen, KI-Systeme informierte einzusetzen, sowie die Chancen und Risiken der KI zu verstehen.

Unternehmen müssen sicherstellen, dass ihre Mitarbeiter die Risiken, die von KI ausgehen können, verstehen. Dies stellt zahlreiche praktische Herausforderungen dar, da die Integration von KI in den Arbeitsalltag immer einfacher wird.

Governance der KI

Ein zentrales Problem ist, dass Unternehmen die notwendige KI-Kompetenz nicht entwickeln können, wenn sie nicht wissen, wie KI eingesetzt wird. Ein Beispiel ist die chinesische App DeepSeek, die plötzlich populär wurde. Die damit verbundenen Datenschutzrisiken und Cybersecurity-Bedrohungen sind oft unbekannt.

Unternehmen sollten ein „AI Usage Board“ einrichten, um Regeln für die Nutzung von KI durch Mitarbeiter festzulegen. Ethik und Unternehmenskultur sollten dabei eine zentrale Rolle spielen, um eine verantwortungsvolle Nutzung von KI zu fördern.

Artikel 5 des EU AI Act

Artikel 5 führt verbotene KI-Praktiken ein und definiert verschiedene Risikostufen für den Einsatz von KI. Zu den verbotenen Anwendungen gehören:

  • KIs, die subtil manipulativ oder täuschend wirken, um das Verhalten von Personen zu beeinflussen.
  • Überwachungen, die vorhersagen, ob eine Person ein Verbrechen begehen könnte, basierend auf Profiling.
  • Emotionserkennung am Arbeitsplatz oder in Schulen, es sei denn, es liegt ein medizinischer oder sicherheitsrelevanter Grund vor.

Organisationen benötigen klare Richtlinien darüber, welche KI-Nutzungen sie nicht akzeptieren. Dazu gehört auch das Management von Verträgen und die Überwachung von Drittanbietern, um sicherzustellen, dass keine verbotenen Praktiken auf ihre Kosten durchgeführt werden.

Der EU AI Act wird weitere Stufen der KI-Nutzung einführen, wobei weniger risikobehaftete Anwendungen weniger Aufsicht erfordern. Das stellt Anforderungen an die Ethik- und Compliance-Abteilungen in Unternehmen, um Prozesse zur Risikobewertung und Kontrolle zu entwickeln.

Insgesamt wird das KI-Compliance-Programm auf den Grundlagen eines starken Ethik- und Compliance-Programms basieren, gleichzeitig jedoch neue Herausforderungen mit sich bringen. Die Welt der KI-Regulierung ist hier, und Unternehmen müssen sich darauf vorbereiten.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...