Effektive Regulierung von KI durch den AI Act der EU

Wird die Europäische Union künstliche Intelligenz effektiv regulieren: Was ändert sich mit dem AI Act?

Die Europäische Union ist die erste Institution weltweit, die umfassende Vorschriften zur künstlichen Intelligenz (KI) eingeführt hat – den AI Act. Doch adressieren diese neuen Regeln tatsächlich die Herausforderungen, die sich aus der Entwicklung von KI ergeben? Und welche Auswirkungen werden sie auf Unternehmen und Nutzer haben?

Künstliche Intelligenz beeinflusst zunehmend verschiedene Aspekte des Lebens und der Wirtschaft, und ihre Entwicklung erfordert angemessene Regulierung. Niemand bezweifelt, dass KI die wirtschaftliche und soziale Landschaft dynamisch verändert. Dank fortschrittlicher Algorithmen ermöglicht KI Organisationen, bessere Vorhersagen zu treffen, Prozesse zu optimieren und Ressourcen effizient zu verwalten, was in einen klaren Wettbewerbsvorteil umschlagen kann. KI wird mittlerweile in nahezu jedem Bereich menschlichen Handelns angewendet – auch in sensiblen Bereichen wie Gesundheitswesen, Bildung, Energie, Transport oder Umweltschutz – und unterstützt Innovation und nachhaltige Entwicklung in diesen Sektoren.

Doch neben den zahlreichen Vorteilen birgt die Technologie auch gewisse Risiken. Je nach Verwendungszweck kann KI Bedrohungen für das öffentliche Interesse und die grundlegenden Rechte darstellen, was sowohl greifbare als auch nicht greifbare negative Effekte nach sich ziehen kann, darunter wirtschaftliche, diskriminierende, soziale oder psychologische Risiken. Angesichts der zunehmenden Bedeutung von KI ist es entscheidend, geeignete Vorschriften zu entwickeln, die Innovation mit dem Schutz der Rechte der Bürger in Einklang bringen.

Zweck und Bedeutung des AI Act

Der AI Act zielt darauf ab, die Risiken, die mit der Nutzung von künstlicher Intelligenz verbunden sind, zu reduzieren und gleichzeitig deren potenzielle Vorteile für die Wirtschaft und die Gesellschaft zu fördern. Die Europäische Union unterteilt die Nutzung von KI in vier Risikostufen, um deren regulatorische Behandlung zu bestimmen. Dies ermöglicht es Nutzern und Unternehmen, ihre Abläufe besser auf die regulatorischen Anforderungen abzustimmen, auch wenn die Einstufung einiger KI-Lösungen in spezifische Risikokategorien fragwürdig sein kann.

Der Act definiert vier Risikostufen für künstliche Intelligenzsysteme, die in der untenstehenden Pyramide veranschaulicht sind:

Je nach Ergebnis der Risikoanalyse muss der Unternehmer die Vorschriften des AI Act bestimmen, die im spezifischen Fall anwendbar sind, darunter:

  • Verbot von KI-Systemen mit inakzeptablen Risiken, wie z.B. massenhafte biometrische Überwachung, psychologische Manipulation (z.B. die Verwendung von KI zur Emotionserkennung an Arbeitsplätzen und Bildungseinrichtungen) oder soziale Bewertungssysteme, die dem chinesischen Bürgerbewertungssystem ähneln. Alle KI-Systeme, die eine klare Bedrohung für die Sicherheit, das Leben und die Rechte der Menschen darstellen, sind verboten und müssen abgebaut werden.
  • Strenge Regulierung von Hochrisiko-KI-Systemen, die Lösungen in Medizin, Rekrutierung, Bildung oder Strafverfolgung umfassen. Unternehmen, die solche Systeme nutzen, müssen angemessene Schutzmaßnahmen, Aufsicht und Transparenz ihrer Abläufe gewährleisten.
  • Transparenzanforderung für KI-Systeme, die mit Menschen interagieren, wie z.B. Chatbots oder generative KI. Nutzer müssen sich bewusst sein, wenn sie mit künstlicher Intelligenz anstelle eines Menschen interagieren.
  • Regeln für allgemeine künstliche Intelligenzmodelle, einschließlich der Pflicht, KI-generierte Inhalte zu kennzeichnen, damit die Nutzer leicht zwischen menschlich und maschinell generierten Inhalten unterscheiden können.

Wer ist von der neuen Regulierung betroffen?

Die Regulierung gilt für Anbieter/Hersteller und Entwickler von KI-Systemen sowie für Organisationen und Institutionen, die KI in ihren Abläufen einsetzen, unabhängig davon, ob diese Anbieter innerhalb der Union ansässig sind oder sich in einem Drittland befinden, solange „das von dem KI-System erzeugte Ergebnis in der Union verwendet wird“. Der AI Act gilt somit für eine Vielzahl von Sektoren, darunter:

  • Finanzen – Kreditbewertungssysteme und Analyse von Investitionsrisiken,
  • Gesundheitswesen – Diagnosen, medizinische Bildanalyse und Dokumentation,
  • Bildung – Algorithmen zur Bewertung der Schülerleistung, Unterstützung des Unterrichts oder Empfehlung von Bildungswegen,
  • Öffentliche Verwaltung – Werkzeuge zur Automatisierung offizieller Entscheidungen, Leistungsgewährungsprozesse oder statistische Datenanalysen,
  • Handel und Marketing – Produktempfehlungen, Analyse von Verbraucherpräferenzen und Personalisierung von Angeboten.

Der AI Act und Deepfakes

Der AI Act bietet auch die Möglichkeit, effektiv gegen Deepfakes vorzugehen, indem der Begriff klar definiert wird als „KI-generierter oder manipulierte Bild-, Audio- oder Videoinhalt, der bestehenden Personen, Objekten, Orten, Entitäten oder Ereignissen ähnelt und einer Person fälschlicherweise als authentisch oder wahr erscheinen würde“. Nutzer eines KI-Systems, das Bild-, Audio- oder Videoinhalte generiert oder manipuliert, die erheblich bestehenden Personen oder Objekten ähneln, müssen offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Diese Offenlegung muss „klar und unterscheidbar“ erfolgen, indem der jeweilige KI-Ausgang entsprechend gekennzeichnet wird.

Zusätzlich verbietet der AI Act die Vermarktung von KI-Systemen, die darauf ausgelegt sind, die Empfänger zu manipulieren und in einer Weise zu täuschen, die ernsthaften Schaden verursacht oder wahrscheinlich verursachen wird, was sowohl materiellen als auch immateriellen Schaden umfasst.

Eine Chance oder eine Herausforderung?

Während neue Verpflichtungen für Unternehmen und Institutionen auferlegt werden, hat der AI Act das Potenzial, die künstliche Intelligenz verantwortungsbewusster einzusetzen. Mit den Vorschriften des AI Act zielt die Europäische Union darauf ab, ein angemessenes Gleichgewicht zwischen der Entwicklung von Innovationen und dem Schutz der Rechte der Bürger aufrechtzuerhalten. Die Nutzung von künstlicher Intelligenz wird zunehmend verbreitet; in einigen Unternehmen kann sie im Mittelpunkt aller Abläufe stehen, während sie in anderen als operationale Unterstützung oder als marginaler Teil des Geschäfts genutzt wird.

Unabhängig vom Umfang ihrer Nutzung ist in jeder Organisation eine gründliche Analyse der KI-Lösungen erforderlich, einschließlich einer angemessenen Prüfung der verwendeten Technologien und der Implementierung neuer, adäquater Risikomanagementverfahren auf Grundlage der Ergebnisse. Für viele Unternehmen bedeutet dies sicherlich zusätzliche Kosten, die für die Durchführung der Analyse und die Umsetzung neuer Richtlinien zur Gewährleistung der angemessenen regulatorischen Compliance anfallen.

In Fällen, in denen Lösungen verwendet werden, die nicht den neuen Vorschriften entsprechen, ist das Unternehmen verpflichtet, deren Nutzung innerhalb von sechs Monaten nach Inkrafttreten der Regulierung einzustellen. Im Falle von Hochrisikosystemen hat der Regulator eine zweijährige Übergangsfrist für angemessene Maßnahmen zur Gewährleistung der Compliance mit den Vorschriften gewährt.

Es ist unbedingt notwendig, mit der Anpassung der KI-Systeme an den AI Act zu beginnen, um die in der Regulierung vorgesehenen Sanktionen zu vermeiden.

Im Allgemeinen gilt jedoch, wie wir alle wissen sollten, dass im Bereich KI das Interessanteste noch bevorsteht!

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...