Der EU AI Act — Ein Meilenstein in der Regulierung von Künstlicher Intelligenz
Die Europäische Union hat mit dem Artificial Intelligence Act (AI Act) einen entscheidenden Schritt in der KI-Governance gemacht. Dies ist die erste KI-Regulierung weltweit, die einen strukturierten Rahmen zur Verwaltung von KI-Technologien schafft und die ethische Nutzung sowie Innovation gewährleistet.
Insbesondere Low-Code-Entwicklungsplattformen, die es ermöglichen, Anwendungen mit minimalem Hand-Coding zu erstellen, integrieren oft KI-Komponenten, um neue Funktionalitäten bereitzustellen. Angesichts der Bestimmungen des AI Act ist es für Entwickler, die Low-Code-Plattformen nutzen, entscheidend, das Risiko ihrer KI-Integrationen zu bewerten, um die Einhaltung und verantwortungsvolle Bereitstellung sicherzustellen.
EU AI Act — Wichtige Aspekte
- Unternehmen sind verantwortlich für sowohl intern entwickelte KI als auch für KI von Drittanbietern, die in gekaufter Software eingebettet ist.
- KI-Adoption ist weit verbreitet in Organisationen, einige sind gezielt aufgebaut, andere sind unsichtbar in Software-Tools eingebettet.
- Strafen für Nicht-Einhaltung können als Folge von Missachtung folgen, mit Beträgen von bis zu €35 Millionen oder 7% des globalen Umsatzes.
EU AI Act — Ziele
Der AI Act verfolgt einen risikobasierten regulatorischen Ansatz, um sicherzustellen, dass Systeme sicher, transparent und im Einklang mit den grundlegenden Rechten sind. Er kategorisiert KI-Anwendungen basierend auf potenziellen Risiken und wendet Verpflichtungen an, um:
- Vertrauen in KI-Technologien zu fördern.
- Grundrechte und gesellschaftliche Werte zu schützen.
- Ein strukturiertes Compliance-Rahmenwerk für Unternehmen bereitzustellen.
- Verantwortlichkeit in der KI-Bereitstellung sicherzustellen.
EU AI Act — Zeitrahmen
Der AI Act trat am 1. August 2024 in Kraft, mit einer schrittweisen Umsetzung:
- Februar 2025: Verpflichtungen zur KI-Kompetenzschulung und Praktiken zur Verhinderung unzulässiger Risiken durch KI-Systeme werden wirksam.
- August 2025: Beginn der Verpflichtungen für Anbieter von allgemeinen KI-Modellen (GPAI) sowie die Ernennung nationaler zuständiger Behörden und die jährliche Überprüfung verbotener KI durch die Europäische Kommission.
- August 2026: Einhaltungspflichten erstrecken sich auf hochriskante KI-Systeme, Strafen und die Einrichtung von KI-regulatorischen Sandkästen durch die Mitgliedstaaten.
- August 2030: Inkrafttreten verbleibender sektorenspezifischer KI-Regeln, einschließlich der Einhaltung spezifischer EU-Vorgaben für andere großangelegte IT-Systeme.
EU AI Act — Klassifikation
Die risikobasierte Klassifikation von KI-Systemen im Rahmen des AI Act wird in vier Stufen unterteilt:
- Unzulässiges Risiko: KI-Systeme, die erhebliche Bedrohungen für die Sicherheit oder grundlegende Rechte darstellen, sind verboten. Beispiele hierfür sind KI zur sozialen Bewertung durch Regierungen und die Echtzeitbiometrische Identifikation in öffentlichen Räumen ohne rechtliche Genehmigung.
- Hohe Risiken: KI-Anwendungen in kritischen Sektoren wie Beschäftigung, Strafverfolgung und Gesundheitswesen werden als hochriskant eingestuft. Diese Systeme müssen Anforderungen und Compliance-Standards einhalten.
- Begrenzte Risiken: KI-Systeme mit begrenztem Risiko unterliegen Transparenzpflichten, wie z.B. die Information der Nutzer, dass sie mit KI interagieren.
- Minimale Risiken: Die Mehrheit der KI-Anwendungen, einschließlich Empfehlungsalgorithmen, unterliegt minimalen oder keinen regulatorischen Anforderungen.
EU AI Act — Internationale Auswirkungen
Der AI Act gilt nicht nur für in der EU ansässige Unternehmen, sondern auch für Unternehmen weltweit, die KI-Systeme innerhalb des EU-Marktes bereitstellen. Organisationen müssen ihre KI-Governance-Rahmenwerke mit den Anforderungen des Act abgleichen, um Strafen zu vermeiden. Diese breite Reichweite wird voraussichtlich die globalen KI-Compliance-Strategien beeinflussen und internationale Standards für verantwortungsvolle KI-Nutzung fördern.
EU AI Act — Compliance
Organisationen, die KI in der EU entwickeln oder bereitstellen, müssen die operationale Compliance sicherstellen und Anpassungen vornehmen, um:
- Risikoanalysen zur Klassifizierung von KI-Anwendungen durchzuführen.
- Transparenz in den Entscheidungsprozessen von KI sicherzustellen.
- Folgenabschätzungen zu den grundlegenden Rechten hochriskanter KI-Anwendungen vorzunehmen.
- Strenge Dokumentations- und Überwachungsmaßnahmen zu ergreifen, um die Vorschriften zu erfüllen.
- Hochriskante KI-Systeme in der neu eingerichteten EU-KI-Datenbank zu registrieren.
EU AI Act — Innovation
Um regulatorische Belastungen für kleine und mittlere Unternehmen (KMU) zu mildern, führt der AI Act ein:
- Regulatorischer Sandbox, um Innovationen unter regulierter Aufsicht zu fördern.
- Proportionale Maßnahmen, um übermäßige Einschränkungen für KMU zu verhindern.
Unternehmen, die KI in Übereinstimmung mit dem EU AI Act implementieren möchten, können auf Tools zurückgreifen, um die Einführung zu rationalisieren, ohne umfangreiche KI-Expertise zu benötigen.
Fazit
Der EU AI Act setzt einen Präzedenzfall für die KI-Regulierung weltweit und balanciert Innovation mit ethischer Aufsicht. Durch die Förderung einer ethischen KI-Governance, Transparenz und Verantwortlichkeit könnte dieser Act global inspirieren.
Unternehmen sollten proaktiv auf die Einhaltung der Vorschriften vorbereitet sein und sicherstellen, dass ihre KI-Systeme den Anforderungen an Transparenz, Sicherheit und Verantwortlichkeit entsprechen.