Der EU AI Act für Maschinenbauer
Der EU AI Act zielt darauf ab, die Einführung von Künstlicher Intelligenz (KI) in Maschinenbau und Automatisierung zu regulieren. In den letzten Jahren hat sich KI als unverzichtbares Werkzeug etabliert, das in verschiedenen Bereichen eingesetzt wird, insbesondere in Steuerungssystemen für Automatisierung und Robotik.
Relevante Aspekte des EU AI Act
Die Europäische Kommission hat beschlossen, Gesetze zu erlassen, um eine menschenzentrierte und vertrauenswürdige Nutzung von KI zu fördern. Der AI Act verfolgt das Ziel, grundlegende Rechte und ethische Prinzipien zu schützen. Bestimmte Arten von KI-Systemen, die als unzulässig gelten, werden verboten, wie Systeme, die die Verwundbarkeit von Individuen ausnutzen oder subliminale Techniken verwenden, um Verhaltensweisen zu verzerren.
Wichtige Daten: Am 1. August 2024 trat die Verordnung über Künstliche Intelligenz (EU) 2024/1689 in Kraft, während die meisten Bestimmungen ab dem 2. August 2026 gelten. Besonders relevant für Maschinenbauer ist der 2. August 2027, an dem hochriskante KI-Systeme, die als Sicherheitskomponenten verwendet werden, reguliert werden.
Compliance-Anforderungen
Bevor ein KI-System in der EU auf den Markt oder zum ersten Mal verwendet wird, muss es mit dem CE-Zeichen versehen werden. Dies gilt sowohl für eigenständige KI-Systeme als auch für solche, die in Produkte wie Maschinen integriert sind. Der Hersteller der Maschine wird zum Provider des KI-Systems und übernimmt die Verpflichtungen gemäß dem AI Act.
Der AI Act legt Verfahren für die Konformitätsbewertung fest, die sowohl Selbstzertifizierung als auch die Nutzung von Dritten umfasst. Während die Selbstzertifizierung für KI-Systeme, die als Sicherheitskomponenten verwendet werden, ausreichend sein sollte, muss ein von einer benannten Stelle zertifiziertes System nach fünf Jahren neu bewertet und zertifiziert werden.
Harmonisierte Standards und gemeinsame Spezifikationen
Um die Konformität mit den Anforderungen zu demonstrieren, sollten harmonisierte Standards, die dem AI Act entsprechen, angewendet werden. Diese Standards sind zum Zeitpunkt der Verabschiedung des Gesetzes noch nicht vollständig ausgearbeitet, sollen jedoch bis Ende April 2025 bereitgestellt werden. Sollten geeignete Standards nicht verfügbar sein oder als unzureichend erachtet werden, erlaubt der AI Act die Schaffung von Durchführungsakten, um gemeinsame Spezifikationen festzulegen.
Nach der Bewertung eines KI-Systems kann eine Konformitätserklärung (DoC) erstellt werden. Wenn das KI-System in ein anderes Produkt eingebettet ist, kann die DoC in die DoC der Maschinenrichtlinie integriert werden.
Pflichten nach der Markteinführung
Nach der Markteinführung eines hochriskanten KI-Systems ist der Provider verpflichtet, eine Marktüberwachung über die Lebensdauer des Systems durchzuführen. Bei schwerwiegenden Vorfällen müssen diese der entsprechenden Marktüberwachungsbehörde gemeldet werden. Hochriskante KI-Systeme, die als Sicherheitskomponenten verwendet werden, müssen über eine automatische Ereignisprotokollierung verfügen.
Bei wesentlichen Änderungen des KI-Systems muss dessen Konformität erneut bewertet werden. Wesentliche Änderungen umfassen beispielsweise die Verwendung eines KI-Systems für einen anderen Zweck als ursprünglich vorgesehen.
Strafen und Konsequenzen
Der AI Act sieht Strafen für die Nichteinhaltung vor, die auch die Bereitstellung von Informationen oder den Zugang für die relevanten Behörden betreffen. Strafen können für Provider, Deployers, Importeure, Händler und benannte Stellen gelten und können bis zu 15 Millionen Euro oder 3% des weltweiten Jahresumsatzes betragen. Die Strafen für verbotene KI-Systeme sind erheblich höher.