Der EU AI Act: Wichtige Aspekte für Maschinenbauer

Der EU AI Act für Maschinenbauer

Der EU AI Act zielt darauf ab, die Einführung von Künstlicher Intelligenz (KI) in Maschinenbau und Automatisierung zu regulieren. In den letzten Jahren hat sich KI als unverzichtbares Werkzeug etabliert, das in verschiedenen Bereichen eingesetzt wird, insbesondere in Steuerungssystemen für Automatisierung und Robotik.

Relevante Aspekte des EU AI Act

Die Europäische Kommission hat beschlossen, Gesetze zu erlassen, um eine menschenzentrierte und vertrauenswürdige Nutzung von KI zu fördern. Der AI Act verfolgt das Ziel, grundlegende Rechte und ethische Prinzipien zu schützen. Bestimmte Arten von KI-Systemen, die als unzulässig gelten, werden verboten, wie Systeme, die die Verwundbarkeit von Individuen ausnutzen oder subliminale Techniken verwenden, um Verhaltensweisen zu verzerren.

Wichtige Daten: Am 1. August 2024 trat die Verordnung über Künstliche Intelligenz (EU) 2024/1689 in Kraft, während die meisten Bestimmungen ab dem 2. August 2026 gelten. Besonders relevant für Maschinenbauer ist der 2. August 2027, an dem hochriskante KI-Systeme, die als Sicherheitskomponenten verwendet werden, reguliert werden.

Compliance-Anforderungen

Bevor ein KI-System in der EU auf den Markt oder zum ersten Mal verwendet wird, muss es mit dem CE-Zeichen versehen werden. Dies gilt sowohl für eigenständige KI-Systeme als auch für solche, die in Produkte wie Maschinen integriert sind. Der Hersteller der Maschine wird zum Provider des KI-Systems und übernimmt die Verpflichtungen gemäß dem AI Act.

Der AI Act legt Verfahren für die Konformitätsbewertung fest, die sowohl Selbstzertifizierung als auch die Nutzung von Dritten umfasst. Während die Selbstzertifizierung für KI-Systeme, die als Sicherheitskomponenten verwendet werden, ausreichend sein sollte, muss ein von einer benannten Stelle zertifiziertes System nach fünf Jahren neu bewertet und zertifiziert werden.

Harmonisierte Standards und gemeinsame Spezifikationen

Um die Konformität mit den Anforderungen zu demonstrieren, sollten harmonisierte Standards, die dem AI Act entsprechen, angewendet werden. Diese Standards sind zum Zeitpunkt der Verabschiedung des Gesetzes noch nicht vollständig ausgearbeitet, sollen jedoch bis Ende April 2025 bereitgestellt werden. Sollten geeignete Standards nicht verfügbar sein oder als unzureichend erachtet werden, erlaubt der AI Act die Schaffung von Durchführungsakten, um gemeinsame Spezifikationen festzulegen.

Nach der Bewertung eines KI-Systems kann eine Konformitätserklärung (DoC) erstellt werden. Wenn das KI-System in ein anderes Produkt eingebettet ist, kann die DoC in die DoC der Maschinenrichtlinie integriert werden.

Pflichten nach der Markteinführung

Nach der Markteinführung eines hochriskanten KI-Systems ist der Provider verpflichtet, eine Marktüberwachung über die Lebensdauer des Systems durchzuführen. Bei schwerwiegenden Vorfällen müssen diese der entsprechenden Marktüberwachungsbehörde gemeldet werden. Hochriskante KI-Systeme, die als Sicherheitskomponenten verwendet werden, müssen über eine automatische Ereignisprotokollierung verfügen.

Bei wesentlichen Änderungen des KI-Systems muss dessen Konformität erneut bewertet werden. Wesentliche Änderungen umfassen beispielsweise die Verwendung eines KI-Systems für einen anderen Zweck als ursprünglich vorgesehen.

Strafen und Konsequenzen

Der AI Act sieht Strafen für die Nichteinhaltung vor, die auch die Bereitstellung von Informationen oder den Zugang für die relevanten Behörden betreffen. Strafen können für Provider, Deployers, Importeure, Händler und benannte Stellen gelten und können bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes betragen. Die Strafen für verbotene KI-Systeme sind erheblich höher.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...