Der aktuelle Stand des AI-Gesetzes: Die Zukunft der KI-Regulierung in der EU
Die Europäische Union (EU) unternimmt erhebliche Schritte zur Regulierung neuer Technologien, wobei das Künstliche Intelligenz-Gesetz (AI-Gesetz) als wegweisender legislativer Versuch hervortritt, KI-Systeme zu regulieren. Während die EU mit dem AI-Gesetz voranschreitet, haben sich bereits mehrere strittige Themen herauskristallisiert. Diese Debatten verdeutlichen die Herausforderung, Innovation mit ethischen und rechtlichen Überlegungen in Einklang zu bringen, insbesondere vor dem Hintergrund jüngster politischer Entwicklungen, wie dem Druck der US-Administration. Berichten zufolge denkt die Europäische Kommission (EK) bereits darüber nach, einen Teil der Anforderungen des AI-Gesetzes freiwillig zu gestalten, was auf erheblichen Widerstand im Europäischen Parlament (EP) stößt.
Umsetzungszeitplan
Das AI-Gesetz soll am 1. August 2026 vollständig anwendbar werden, nach einer zweijährigen Umsetzungsphase. Allerdings gibt es, wie bei allen komplexen Gesetzen, Ausnahmen, wobei einige Regelungen früher in Kraft treten. Seit dem 2. Februar 2025 sind KI-Systeme, die als „unvertretbares Risiko“ kategorisiert werden (wie Systeme zur sozialen Bewertung oder das ungefilterte Scraping des Internets zur Erstellung von Gesichtserkennungsdatenbanken), verboten, was einen bedeutenden Schritt zum Schutz grundlegender Rechte darstellt. Darüber hinaus müssen Organisationen, die KI-Systeme entwickeln oder nutzen, sicherstellen, dass ihre Mitarbeiter KI-kompetent sind, was bedeutet, dass ein ausreichendes Wissen über KI gefördert werden muss.
Bis zum 2. Mai 2025 müssen Anbieter von KI-Systemen ihre Verhaltenskodizes bereitstellen, um die Einhaltung der Anforderungen des Gesetzes nachzuweisen. Hochrisikosysteme haben mehr Zeit zur Einhaltung, mit einer Fristverlängerung bis zum 2. August 2027, um den Beteiligten die Anpassung an das neue regulatorische Umfeld zu ermöglichen.
Aktueller Stand und Entwicklungen
Seit 2021 wird das (damals vorgeschlagene) AI-Gesetz im legislativen Prozess der EU geprüft und diskutiert. Das EP und der Rat der EU sind aktiv in Gespräche involviert, um die Bestimmungen des AI-Gesetzes zu verfeinern und Bedenken verschiedener Interessengruppen anzusprechen. Das AI-Gesetz wurde am 13. März 2024 formell angenommen. Die EK zielt nun darauf ab, in diesen Diskussionen Anleitung zu geben. Im Februar 2025 hat die EK Entwurfshinweise zu verbotenen KI-Praktiken und zur Definition von KI-Systemen veröffentlicht, wobei Kritiker anmerken, dass die Dokumente mehr Verwirrung als Klarheit hervorrufen.
Definition von Hochrisiko-KI-Systemen
Eine der bedeutendsten Debatten dreht sich um die Definition und Kategorisierung von Hochrisiko-KI-Systemen. Das AI-Gesetz beabsichtigt, strenge Anforderungen an Systeme zu stellen, die als hochriskant eingestuft werden, wie solche, die in der Strafverfolgung, kritischer Infrastruktur und Beschäftigung eingesetzt werden. Interessengruppen äußern jedoch Bedenken hinsichtlich der Kriterien zur Bestimmung des Hochrisikos. Einige argumentieren, dass die aktuellen Definitionen zu breit gefasst sein könnten und Innovationen durch übermäßige regulatorische Belastungen behindern könnten. Andere plädieren für präzisere Kriterien, um sicherzustellen, dass hochriskante Anwendungen angemessen reguliert werden, während weniger riskante Technologien gedeihen können.
Transparenz und Verantwortung
Transparenz und Verantwortung sind zentrale Aspekte des AI-Gesetzes, bleiben jedoch umstritten. Das AI-Gesetz schreibt vor, dass KI-Systeme, insbesondere solche, die als hochriskant eingestuft werden, in ihren Operationen transparent sein und menschlicher Aufsicht unterliegen müssen. Die Einzelheiten dieser Anforderungen sind jedoch umstritten. Branchenvertreter äußern Bedenken, dass übermäßig vorschreibende Transparenzpflichten die Entwicklung proprietärer Technologien behindern und den Wettbewerbsvorteil gefährden könnten. Im Gegensatz dazu betonen Verbrauchervertretungen die Notwendigkeit robuster Transparenzmaßnahmen, um Nutzer zu schützen und den ethischen Einsatz von KI sicherzustellen.
Urheberrechtsrechtliche Lücke
Im Februar 2025 haben 15 Kulturorganisationen in einem Schreiben an die EK die Notwendigkeit neuer Gesetze hervorgehoben, um Autoren, Musiker und Kreative zu schützen, die aufgrund einer angeblichen „rechtlichen Lücke“ im AI-Gesetz verletzbar sind. Laut einem Urheberrechtsexperten adressiert das AI-Gesetz die Herausforderungen des Urheberrechts, die durch generative KI-Modelle entstehen, nicht ausreichend. Die Ausnahme für Text- und Datenanalysen im AI-Gesetz, ursprünglich für den begrenzten privaten Gebrauch gedacht, wird angeblich so missinterpretiert, dass große Technologiefirmen große Mengen an geistigem Eigentum verarbeiten könnten. Dies hat Besorgnis und Klagen von Autoren und Musikern ausgelöst. Die EK hat diese Herausforderungen anerkannt und erwägt zusätzliche Maßnahmen, um Innovation mit dem Schutz menschlicher Kreativität in Einklang zu bringen.
Ungarns Einsatz von Gesichtserkennungstechnologie
Ein konkretes Beispiel für die Herausforderungen bei der Umsetzung des AI-Gesetzes ist Ungarns Einsatz von Gesichtserkennungstechnologie, wo Ungarn vorschlägt, KI-basierte Gesichtserkennung zur Bestrafung von Teilnehmern der Gay Budapest Pride zu verwenden. Berichten zufolge verstößt Ungarns Einsatz dieser Technologie gegen die Bestimmungen des AI-Gesetzes, wobei ein Sprecher der EK erklärt, dass die Beurteilung der Rechtmäßigkeit davon abhängt, ob die Gesichtserkennung in Echtzeit oder nachträglich durchgeführt wird. Mitglieder des EP drängen die EK, die Angelegenheit zu prüfen. Der Fall verdeutlicht die Schwierigkeiten, die Anforderungen des AI-Gesetzes über die Mitgliedstaaten hinweg durchzusetzen – der Haftungsteil des AI-Gesetzes ist noch unklar, insbesondere seit dem Rückzug der AI-Haftungsrichtlinie – und hebt die Notwendigkeit klarer Richtlinien und Durchsetzungsmechanismen hervor.
Schutz von Minderjährigen
Das AI-Gesetz behandelt auch den Schutz von Minderjährigen, doch dieses Gebiet bleibt mit Herausforderungen behaftet. Es ist eine Priorität sicherzustellen, dass KI-Systeme Minderjährige nicht ausnutzen oder schädigen, aber die Richtlinien zur effektiven Erreichung dieses Ziels werden noch verfeinert. Die Komplexität der Regulierung von KI in Kontexten, die Minderjährige betreffen, wie Bildungstechnologien und soziale Medien, erfordert sorgfältige Überlegungen, um Schutz mit dem Zugang zu nützlichen Technologien in Einklang zu bringen.
Implikationen für Interessengruppen
Obwohl das AI-Gesetz noch sehr theoretisch ist und der Haftungsteil des Gesetzes noch unklar ist, ist es wichtig, dass Organisationen, die KI-Systeme nutzen, sich der Regeln bewusst sind und mit der Vorbereitung ihrer Einhaltung des AI-Gesetzes beginnen. Um weitere Einblicke in die Implikationen des AI-Gesetzes und die notwendigen Schritte, die Entwickler und Nutzer auf ihrem Weg zur Einhaltung unternehmen müssen, zu erhalten, bieten die niederländische und belgische Datenschutzbehörde entsprechende Ressourcen und Leitfäden an.
Fazit
Insgesamt steht das AI-Gesetz vor weitreichenden Implikationen für Unternehmen, Entwickler und Nutzer von KI-Technologien in der EU, die oft unvorhersehbar sind. Das AI-Gesetz stellt einen entscheidenden Moment in der Regulierung von KI innerhalb der EU dar. Es wird deutlich, dass es kein „Wundermittel“ ist, das alle Unklarheiten für Organisationen, die KI-Systeme nutzen und entwickeln, löst. Die Richtlinien der EK, die versuchen, Anleitung zu geben, scheitern teilweise daran, dies zu tun. Darüber hinaus ist das AI-Gesetz für alle Sektoren und Praxisbereiche relevant und KI-Systeme werden durch andere Gesetze neben dem AI-Gesetz, wie die DSGVO und Antidiskriminierungsgesetze, reguliert. Diese Komplexitäten unterstreichen die Notwendigkeit umfassender rechtlicher Leitlinien. In zukünftigen Episoden dieser KI-Serie werden wir spezifische Themen und Aspekte des AI-Gesetzes vertiefen, die zwischen diesen Sektoren und Praxisbereichen navigieren und versuchen, Bewusstsein zu schaffen und praktische interdisziplinäre Leitfäden bereitzustellen.