Der EU AI Act: Auswirkungen auf den Finanzmarkt

Der EU AI Act tritt in Kraft: Was bedeutet das für Sie?

Im April 2021 schlug die Europäische Kommission den ersten EU-regulatorischen Rahmen für künstliche Intelligenz vor – den Künstliche Intelligenz Act. Das Ziel: Nutzer vor den Risiken zu schützen, die mit dem Einsatz von KI-Systemen verbunden sind.

Vier Jahre später sind nun Teile der Verordnung in Kraft getreten. Aber was ist der EU AI Act? Wer ist betroffen? Was bedeutet dies für die Teilnehmer des Finanzmarktes und wie reagieren die Investoren?

Die Risikoklassifizierung des EU AI Act

Der EU AI Act unterteilt den Einsatz von KI in vier Risikostufen, die deren regulatorische Behandlung bestimmen:

1. Unakzeptables Risiko

Das erste – und arguably wichtigste – ist das unakzeptable Risiko. Dies bedeutet, dass ein KI-System eine Bedrohung für Menschen und deren grundlegende Rechte darstellt und die Werte der EU verletzt. KI-Systeme, die als „unakzeptabel“ eingestuft werden, werden verboten. Beispiele sind KI-Systeme, die soziale Bewertung ermöglichen, indem sie Menschen nach persönlichen Merkmalen oder sozioökonomischen Faktoren kategorisieren.

2. Hohes Risiko

Systeme, die negative Auswirkungen auf grundlegende Rechte haben könnten, werden als hohes Risiko klassifiziert und in zwei Kategorien unterteilt: solche, die in Produkten verwendet werden, die unter die Produktsicherheitsgesetzgebung der EU fallen (z. B. Luftfahrt oder medizinische Geräte), und solche, die in einer Datenbank registriert werden müssen (z. B. Systeme, die für die Strafverfolgung oder das Management von Migration, Asyl und Grenzkontrolle verwendet werden).

3. Begrenztes Risiko / Transparenzrisiko

Benutzer müssen darüber informiert werden, wann sie mit KI interagieren. Anwendungen, die anfällig für Manipulation sind, wie Chatbots oder Tiefenfälschungen, müssen transparent sein und die EU-Urheberrechtsgesetze einhalten.

4. Minimales Risiko

Anwendungen, die nicht in die oben genannten drei Kategorien fallen, werden als minimales Risiko eingestuft und können auf der Grundlage bestehender Gesetze ohne zusätzliche rechtliche Anforderungen entwickelt und genutzt werden. Es ist wichtig zu beachten, dass das, was jetzt als minimales Risiko eingestuft ist, sich in Zukunft ändern kann.

Wer ist vom EU AI Act betroffen?

Die Verordnung gilt für alle 27 Mitgliedstaaten der Europäischen Union. Sie gilt auch für Unternehmen außerhalb der EU, wenn das KI-System auf dem EU-Markt angeboten wird oder Personen in der EU betrifft. Dies fügt eine zusätzliche Komplexitätsebene hinzu.

Reaktionen der professionellen Investoren

Während es noch früh ist, weisen europäische Fondsmanager auf drei wichtige Überlegungen hin: die Umsetzung der Gesetzgebung, die Auswirkungen auf die Innovation und die potenziellen Chancen.

Investoren sehen zwei Hauptherausforderungen für große Technologieunternehmen. Einschränkungen beim Einsatz von KI könnten die Nachfrage nach KI-Chips, Cloud-Computing und KI-gesteuerter Software dämpfen, was potenziell das zukünftige Umsatzwachstum einschränken könnte. Zweitens werden die Compliance-Kosten, die mit Dokumentation und Prüfung verbunden sind, die Margen belasten.

Geltung des EU AI Act im Vereinigten Königreich

Ja, britische Unternehmen, die ein KI-System entwickeln oder verwenden, das in der EU genutzt wird, unterliegen der Regulierung. Im Vergleich zu dem risikobasierten Ansatz der EU hat das Vereinigte Königreich einen pro-innovations Ansatz zur Regulierung angenommen.

Wann tritt der EU AI Act in Kraft?

Der EU AI Act hat viele bewegliche Teile. Hier ist ein Zeitplan der bemerkenswertesten Daten:

  • April 2021 – Die Europäische Kommission schlägt den ersten EU-regulatorischen Rahmen für KI vor.
  • März 2024 – Das Parlament verabschiedet den Künstliche Intelligenz Act.
  • Mai 2024 – Der Rat genehmigt den AI Act.
  • Juni 2024 – EU-Gesetzgeber unterzeichnen den Act.
  • 1. August 2024 – Der EU AI Act tritt in allen 27 EU-Mitgliedstaaten in Kraft.
  • 1. August 2026 – Nach einer zweijährigen Implementierungszeit wird die Verordnung vollständig anwendbar.

Fazit

Obwohl wir auf die vollständige Einführung warten, sollte der erste Schritt darin bestehen, zu überprüfen, ob KI-bezogene Aktivitäten in die Kategorien unakzeptables oder hohes Risiko fallen. Die Kosten für die Nichteinhaltung sind erheblich – bis zu 35.000.000 EUR oder bis zu 7% des weltweiten Jahresumsatzes eines Unternehmens des vorhergehenden Geschäftsjahres, je nachdem, was höher ist.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...