Der EU AI Act: Wichtige Informationen für Unternehmen

Der EU AI Act: Was Sie wissen müssen

Der EU AI Act stellt einen bedeutenden Schritt in der Regulierung von Künstlicher Intelligenz (KI) dar. Diese Verordnung zielt darauf ab, die Sicherheit und den Schutz der Grundrechte von natürlichen Personen zu gewährleisten, während gleichzeitig die Innovation in diesem sich schnell entwickelnden Bereich gefördert wird.

Welche Risikokategorien gibt es?

Der AI Act unterteilt Künstliche Intelligenz in drei Risikoklassen: „unzulässig“, „hoch“ und „niedrig/minimal“.

Der Markt für KI-Systeme, die ein unzulässiges Risiko darstellen, ist verboten. Dazu gehören Systeme, die darauf abzielen, menschliches Verhalten subliminal negativ zu beeinflussen, sowie solche, die die Schwächen von schutzbedürftigen Personen ausnutzen.

Darüber hinaus ist die Nutzung von KI-Systemen durch öffentliche Behörden zur Bewertung oder Klassifizierung der Vertrauenswürdigkeit natürlicher Personen (sogenanntes „Sozial-Scoring“) untersagt. KI-Systeme dürfen grundsätzlich nicht für die Echtzeitbiometrische Fernidentifikation natürlicher Personen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken verwendet werden.

KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder die Grundrechte natürlicher Personen darstellen, werden als „hoch-riskante KI-Systeme“ bezeichnet. Zu diesen Grundrechten gehören die Menschenwürde, der Respekt für das Privat- und Familienleben, der Schutz personenbezogener Daten sowie die Freiheit der Meinungsäußerung und Informationsfreiheit.

Es sei denn, KI-Systeme werden als unzulässig eingestuft und als hochriskante KI-Systeme klassifiziert, fallen sie in die Kategorie „niedrig/minimal riskant“. Diese Systeme unterliegen weniger strengen Anforderungen. Anbieter solcher Systeme sollten jedoch dennoch Verhaltenskodizes aufstellen und ermutigt werden, die Vorschriften für hochriskante KI-Systeme freiwillig anzuwenden. Darüber hinaus verlangt der EU AI Act, dass selbst niedrigriskante KI-Systeme sicher sind, wenn sie auf den Markt gebracht oder in Betrieb genommen werden.

Angesichts der breiten Definition von KI im AI Act wird erwartet, dass die meisten KI-Systeme konform sein müssen, sobald das Gesetz in Kraft tritt.

Wer ist betroffen?

Der AI Act hat eine umfassende rechtliche Reichweite und erhebliche Auswirkungen auf alle Beteiligten. Er wird sowohl Anbieter (Entwickler) als auch Nutzer (Anwender) von KI-Systemen betreffen. Arbeitgeber, die als Nutzer von KI gelten, unterliegen ebenfalls den im Gesetz festgelegten Verpflichtungen, wenn sie Systeme am Arbeitsplatz implementieren.

Zusätzlich werden nationale Testregime (bekannt als „Sandboxes“) eingerichtet, zusammen mit Verhaltenskodizes, um die ordnungsgemäße Einhaltung der Vorschriften für allgemeine KI-Systeme sicherzustellen.

Bestehende EU-Rechtsvorschriften sowie sektorale Gesetzgebung der Union in Bezug auf Produktsicherheit bleiben anwendbar. Die Einhaltung des AI Act befreit Organisationen nicht von ihren bereits bestehenden rechtlichen Verpflichtungen in diesen Bereichen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...