Der EU AI Act tritt in Kraft: Was bedeutet das für Sie?
Im April 2021 schlug die Europäische Kommission den ersten EU-regulatorischen Rahmen für künstliche Intelligenz vor – den Künstliche Intelligenz Act. Das Ziel: Nutzer vor den Risiken zu schützen, die mit dem Einsatz von KI-Systemen verbunden sind.
Vier Jahre später sind nun Teile der Verordnung in Kraft getreten. Aber was ist der EU AI Act? Wer ist betroffen? Was bedeutet dies für die Teilnehmer des Finanzmarktes und wie reagieren die Investoren?
Die Risikoklassifizierung des EU AI Act
Der EU AI Act unterteilt den Einsatz von KI in vier Risikostufen, die deren regulatorische Behandlung bestimmen:
1. Unakzeptables Risiko
Das erste – und arguably wichtigste – ist das unakzeptable Risiko. Dies bedeutet, dass ein KI-System eine Bedrohung für Menschen und deren grundlegende Rechte darstellt und die Werte der EU verletzt. KI-Systeme, die als „unakzeptabel“ eingestuft werden, werden verboten. Beispiele sind KI-Systeme, die soziale Bewertung ermöglichen, indem sie Menschen nach persönlichen Merkmalen oder sozioökonomischen Faktoren kategorisieren.
2. Hohes Risiko
Systeme, die negative Auswirkungen auf grundlegende Rechte haben könnten, werden als hohes Risiko klassifiziert und in zwei Kategorien unterteilt: solche, die in Produkten verwendet werden, die unter die Produktsicherheitsgesetzgebung der EU fallen (z. B. Luftfahrt oder medizinische Geräte), und solche, die in einer Datenbank registriert werden müssen (z. B. Systeme, die für die Strafverfolgung oder das Management von Migration, Asyl und Grenzkontrolle verwendet werden).
3. Begrenztes Risiko / Transparenzrisiko
Benutzer müssen darüber informiert werden, wann sie mit KI interagieren. Anwendungen, die anfällig für Manipulation sind, wie Chatbots oder Tiefenfälschungen, müssen transparent sein und die EU-Urheberrechtsgesetze einhalten.
4. Minimales Risiko
Anwendungen, die nicht in die oben genannten drei Kategorien fallen, werden als minimales Risiko eingestuft und können auf der Grundlage bestehender Gesetze ohne zusätzliche rechtliche Anforderungen entwickelt und genutzt werden. Es ist wichtig zu beachten, dass das, was jetzt als minimales Risiko eingestuft ist, sich in Zukunft ändern kann.
Wer ist vom EU AI Act betroffen?
Die Verordnung gilt für alle 27 Mitgliedstaaten der Europäischen Union. Sie gilt auch für Unternehmen außerhalb der EU, wenn das KI-System auf dem EU-Markt angeboten wird oder Personen in der EU betrifft. Dies fügt eine zusätzliche Komplexitätsebene hinzu.
Reaktionen der professionellen Investoren
Während es noch früh ist, weisen europäische Fondsmanager auf drei wichtige Überlegungen hin: die Umsetzung der Gesetzgebung, die Auswirkungen auf die Innovation und die potenziellen Chancen.
Investoren sehen zwei Hauptherausforderungen für große Technologieunternehmen. Einschränkungen beim Einsatz von KI könnten die Nachfrage nach KI-Chips, Cloud-Computing und KI-gesteuerter Software dämpfen, was potenziell das zukünftige Umsatzwachstum einschränken könnte. Zweitens werden die Compliance-Kosten, die mit Dokumentation und Prüfung verbunden sind, die Margen belasten.
Geltung des EU AI Act im Vereinigten Königreich
Ja, britische Unternehmen, die ein KI-System entwickeln oder verwenden, das in der EU genutzt wird, unterliegen der Regulierung. Im Vergleich zu dem risikobasierten Ansatz der EU hat das Vereinigte Königreich einen pro-innovations Ansatz zur Regulierung angenommen.
Wann tritt der EU AI Act in Kraft?
Der EU AI Act hat viele bewegliche Teile. Hier ist ein Zeitplan der bemerkenswertesten Daten:
- April 2021 – Die Europäische Kommission schlägt den ersten EU-regulatorischen Rahmen für KI vor.
- März 2024 – Das Parlament verabschiedet den Künstliche Intelligenz Act.
- Mai 2024 – Der Rat genehmigt den AI Act.
- Juni 2024 – EU-Gesetzgeber unterzeichnen den Act.
- 1. August 2024 – Der EU AI Act tritt in allen 27 EU-Mitgliedstaaten in Kraft.
- 1. August 2026 – Nach einer zweijährigen Implementierungszeit wird die Verordnung vollständig anwendbar.
Fazit
Obwohl wir auf die vollständige Einführung warten, sollte der erste Schritt darin bestehen, zu überprüfen, ob KI-bezogene Aktivitäten in die Kategorien unakzeptables oder hohes Risiko fallen. Die Kosten für die Nichteinhaltung sind erheblich – bis zu 35.000.000 EUR oder bis zu 7% des weltweiten Jahresumsatzes eines Unternehmens des vorhergehenden Geschäftsjahres, je nachdem, was höher ist.