Was Maschinenbauer über das EU AI-Gesetz wissen müssen
Das EU AI-Gesetz definiert vier Risikostufen für KI-Systeme und könnte erhebliche Auswirkungen auf Maschinenbauer haben. Es zielt darauf ab, die Nutzung von KI zu fördern, die menschenzentriert und vertrauenswürdig ist.
Im Jahr 2024 trat das Gesetz über künstliche Intelligenz (EU) 2024/1689 in Kraft. Die meisten Bestimmungen gelten ab dem 2. August 2026, jedoch ist das Datum, das für Maschinenbauer von größtem Interesse ist, der 2. August 2027. An diesem Datum werden hochriskante KI-Systeme, die als Sicherheitskomponenten verwendet werden, reguliert.
Wichtige Daten
Die EU hat beschlossen, mit der Gesetzgebung zu arbeiten, um die Entwicklung und den Einsatz von KI zu fördern, die grundlegende Rechte und ethische Prinzipien schützt. Bestimmte Arten von KI-Systemen, die inakzeptable Risiken bergen, werden verboten, wie solche, die die Verwundbarkeit von Individuen ausnutzen oder subliminale Techniken verwenden, um Verhaltensweisen zu verzerren.
Schritte zur Einhaltung
Bevor ein KI-System auf den Markt gebracht oder zum ersten Mal in der EU eingesetzt wird, muss es CE-zertifiziert sein. Dies gilt sowohl für eigenständige KI-Systeme als auch für solche, die in Produkte wie Maschinen eingebettet sind. Der Hersteller des Produkts wird dann als Anbieter des KI-Systems verantwortlich.
Das AI-Gesetz unterscheidet zwischen „Anbietern“ und „Einsatzern“. Beispielsweise wäre ein Maschinenbauer der Anbieter eines KI-Systems, während der Endbenutzer der Einsatz wäre.
Der CE-Zertifizierungsprozess hat mehrere Ähnlichkeiten mit dem Verfahren zur CE-Kennzeichnung gemäß der Maschinenrichtlinie. Viele Schritte auf dem Weg zur Einhaltung werden daher für jeden vertraut sein, der eine Maschine gemäß der Maschinenrichtlinie CE-zertifiziert hat.
Erklärung der Konformität
Sobald ein KI-System als konform mit den Anforderungen des Gesetzes bewertet wurde, kann eine Erklärung zur Konformität (DoC) erstellt werden. Wenn ein KI-System in ein anderes Produkt eingebettet ist, kann die DoC in die DoC der Maschinenrichtlinie integriert werden.
Für hochriskante KI-Systeme muss ein physisches CE-Zeichen angebracht werden. Wenn dies nicht möglich ist, sollte das Zeichen auf der Verpackung oder in den Begleitdokumenten angebracht werden. Das physische Zeichen kann durch ein digitales CE-Zeichen ergänzt werden.
Ein wichtiger Punkt für Anbieter außerhalb der EU ist, dass das AI-Gesetz die Ernennung eines bevollmächtigten Vertreters (AR) erfordert. Der AR muss eine natürliche oder juristische Person in der EU sein und eine Vollmacht vom Anbieter besitzen.
Fortlaufende Verpflichtungen
Nach der Markteinführung eines hochriskanten KI-Systems ist der Anbieter verpflichtet, eine Nachverfolgung des Systems während seiner gesamten Lebensdauer durchzuführen. Bei schwerwiegenden Vorfällen müssen diese der zuständigen Marktüberwachungsbehörde gemeldet werden.
Wenn ein KI-System wesentlichen Änderungen unterzogen wird, muss dessen Konformität erneut bewertet werden. Wesentliche Änderungen umfassen die Verwendung eines KI-Systems für einen Zweck, für den es ursprünglich nicht vorgesehen war.
Innerhalb des AI-Gesetzes gibt es Regeln für Strafen bei Nichteinhaltung, einschließlich des Versäumnisses, den relevanten Behörden Informationen oder Zugang auf Anfrage zu gewähren. Die Strafen können bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes eines Unternehmens betragen. Strafen im Zusammenhang mit verbotenen KI-Systemen sind deutlich höher.