Regulierung von Künstlicher Intelligenz: Risiken und Chancen

Die Notwendigkeit der Regulierung von KI

Die Künstliche Intelligenz ist die transformativste revolutionäre Technologie unserer Zeit und prägt jeden Bereich menschlichen Handelns. Doch ihre immense Macht birgt auch erhebliche Risiken. Die Intransparenz ihrer Algorithmen verstärkt diese Gefahren – es gibt zahlreiche Fälle, in denen sie der Gesellschaft schwerwiegenden Schaden zugefügt hat. Diese Schäden können sich in Lichtgeschwindigkeit ausbreiten und bieten kaum Spielraum für Korrekturen oder Kursänderungen.

Systemische Risiken

Die Risiken erstrecken sich auch auf systemische Instabilität, wie die KI-gesteuerten finanziellen „Flash-Crashes“ zeigen. Am 6. Mai 2010 fiel der Dow Jones innerhalb von nur 10 Minuten um mehr als 1.000 Punkte und vernichtete etwa 1 Billion Dollar an Eigenkapital, obwohl 70 Prozent der Verluste bis zum Ende des Tages zurückgewonnen wurden. Unreguliert können diese Risiken das Vertrauen in Institutionen untergraben und Märkte destabilisieren. Besonders sinister ist die Fähigkeit, körperliche Gewalt auszuüben. Ein UN-Bericht aus dem Jahr 2020 deutete darauf hin, dass türkisch hergestellte Kargu-2-Drohnen, die mit KI-gestützter Bildverarbeitung betrieben werden, möglicherweise menschliche Kämpfer ohne direkte menschliche Aufsicht angegriffen haben – ein möglicherweise erster dokumentierter Vorfall autonomer tödlicher Gewalt.

Automatisierte Entscheidungsfindung

Berichte aus Gaza in den Jahren 2023-24 deuteten darauf hin, dass Israel ein KI-System namens „Lavender“ verwendet hat, um automatisch Ziellisten für Bombenangriffe zu generieren. Solche automatisierten Entscheidungsprozesse könnten unbeabsichtigte zivile Todesfälle verursacht haben, indem sie die Schwelle für Angriffe senkten und die Moral, Legalität und Verantwortlichkeit bei der Anwendung von Gewalt gegen Zivilisten in Frage stellten. KI-Systeme sind anfällig dafür, die Vorurteile ihrer Schöpfer zu übernehmen und häufig verborgene Vorurteile in ihren Trainingsdaten zu reflektieren, wodurch menschliche Vorurteile reproduziert und verstärkt werden, während sie scheinbare Unparteilichkeit vorgeben.

Gefahren durch Bias und Monopole

Die Skalierbarkeit, Unsichtbarkeit und Geschwindigkeit von KI machen sie gefährlicher; einmal in automatisierte Entscheidungssysteme eingebettet, können voreingenommene Ergebnisse Millionen von Menschen gleichzeitig betreffen. Solche Missbräuche untergraben das Vertrauen, vertiefen Ungleichheiten und perpetuieren systemische Ungerechtigkeiten. Ein Beispiel ist der COMPAS-Algorithmus, der in US-Gerichten zur Vorhersage des Rückfallrisikos verwendet wurde und schwarze Angeklagte unfair als „hochgradig gefährlich“ einstufte, obwohl weiße Angeklagte schlechtere kriminelle Hintergründe hatten.

Ein weiteres ernstes Anliegen ist, dass eine Handvoll großer US-Unternehmen die meisten KI-Ressourcen und Rechenleistungen kontrolliert. Dies schafft erhebliche geopolitische Risiken, zementiert Monopole und vertieft die digitale Kluft. Man kann nicht übersehen, wie Facebooks Algorithmus zur Rohingya-Völkermord in Myanmars Rakhine-Staat im Jahr 2016-17 beigetragen hat. Dieser Algorithmus wurde programmiert, um die Nutzerinteraktion zu steigern und dadurch mehr Werbeeinnahmen zu generieren. Er lernte schnell, dass die Verbreitung von Hass und provokativen Inhalten effizienter zur Steigerung des Engagements führte, was zur Normalisierung von hasserfülltem Inhalt und zur Dehumanisierung der Rohingyas führte. Tausende wurden ermordet und über 700.000 flohen nach Bangladesch.

Dringlichkeit der Regulierung

Die Veröffentlichung von ChatGPT im Jahr 2022 war ein Weckruf – sein Potenzial zur Verbreitung von Fehlinformationen und Hass in der Gesellschaft und zur Untergrabung des demokratischen Prozesses führte zu globalen Forderungen nach KI-Regulierung. Die Europäische Union führte diese Initiative an, indem sie im August 2024 das EU-Gesetz über künstliche Intelligenz verabschiedete. Die Umsetzung seiner wichtigsten Merkmale beginnt im August 2025, mit vollständiger Funktionsfähigkeit bis August 2026.

Im Kern folgt das Gesetz einem risikobasierten Ansatz, der KI-Anwendungen je nach Risiken von minimal bis inakzeptabel kategorisiert und entsprechende Verpflichtungen vorschreibt. Es zielt darauf ab, sicherzustellen, dass KI-Systeme sicher, transparent und nicht diskriminierend sind und von Menschen überwacht werden, um schädliche Ergebnisse zu verhindern. Systeme mit inakzeptablen Risiken werden in der EU vollständig verboten – dazu gehören kognitive Verhaltensmanipulation von Menschen oder spezifischen schutzbedürftigen Gruppen, soziale Bewertung oder Profilierung von Menschen durch Regierungen sowie jegliche manipulative biometrische Überwachung einschließlich Echtzeit-Biometrieerkennungssysteme wie Gesichtserkennung im öffentlichen Raum.

Globale Perspektiven und Herausforderungen

Das Gesetz sieht vor, dass hochriskante KI-Systeme, die die Sicherheit oder die grundlegenden Rechte der Bürger verletzen können, kontinuierlich überwacht werden müssen. Während generative KI, wie ChatGPT, nicht als hochriskant eingestuft wird, muss sie dennoch Transparenzanforderungen erfüllen, indem sie KI-generierte Inhalte offenlegt und verhindert, dass sie illegale oder schädliche Inhalte erzeugt. Inhalte, die mit Hilfe von KI erzeugt oder modifiziert wurden – Bilder, Audio- oder Videodateien (wie Deepfakes) – müssen als KI-generiert gekennzeichnet werden. Das Gesetz zielt darauf ab, die Bürger vor Diskriminierung, Datenschutzverletzungen und undurchsichtiger algorithmischer Entscheidungsfindung zu schützen.

Jedes Unternehmen, das KI-Produkte in der EU anbietet, muss diese Anforderungen erfüllen, und ihr Einfluss wird voraussichtlich über Europa hinausreichen und globale Normen für die Governance neuer Technologien prägen, ähnlich wie mit der Allgemeinen Datenschutzverordnung (GDPR), dem Flaggschiffgesetz der EU zum Datenschutz und zur Privatsphäre seit 2018. Das Gesetz sieht auch einen Code of Practice vor, der von großen Unternehmen (Google, Microsoft, OpenAI, Anthropic usw.) unterzeichnet wurde. Meta hat sich geweigert, wird aber trotzdem zur Einhaltung verpflichtet. Es wurde ein neues Governance-Gremium, der Europäische Ausschuss für künstliche Intelligenz (EAIB), gegründet, um die Konsistenz der Umsetzung im gesamten EU-Raum zu koordinieren und zu überwachen.

Kritiker argumentieren, dass diese Regeln die Innovation behindern und hohe Compliance-Kosten für Start-ups auferlegen könnten, was großen Unternehmen einen Vorteil verschafft. Die Trump-Administration möchte, dass die EU einige ihrer Regeln abschafft, die sie als Handelshemmnisse betrachtet, und die Reaktion der EU wird testen, ob sie einen unabhängigen Kurs in der Regulierung von KI einschlagen kann. Bisher konzentrierte sich der Ansatz der USA auf Sicherheit, Standards und agenturgetriebenen Aufsicht anstelle umfassender Regulierung.

Bei dem AI-Gipfel in Paris im Februar 2025 lehnte die USA die Unterzeichnung einer globalen Erklärung zur KI-Governance ab und argumentierte, dass das EU-Gesetz KI-Investitionen behindern, den Wettbewerb reduzieren und Innovationen abschrecken würde. Im April 2025 teilte sie der EU mit, dass ihr Code of Practice übermäßig belastend sei und über den Umfang der Regulierung hinausgehe. Im Juli 2025 begann die Trump-Administration mit einer Reihe aggressiver Deregulierungsmaßnahmen, die eine klare Divergenz vom regulatorischen Ansatz der EU demonstrieren. Ungeachtet Trumps ist die weltweite Meinung, dass KI reguliert werden muss.

Globale Initiativen zur KI-Regulierung

Auf der 2025 World AI Conference in Shanghai stellte China seinen Global AI Governance Action Plan vor, der internationale Zusammenarbeit, Sicherheitsregulierungen und das UN-Engagement in der globalen KI-Governance fördert. Dieser Plan betont auch Aufsicht und Zusammenarbeit – obwohl die Transparenz der chinesischen KI-Entwicklungssysteme fragwürdig bleibt. Brasilien steht ebenfalls kurz davor, sein eigenes risikobasiertes KI-Regulierungsgesetz zu erlassen. Indien hingegen hat kein spezielles KI-Gesetz. Die NITI Aayog’s Nationale KI-Strategie von 2018 und das Papier von 2021 zu den Grundsätzen für verantwortungsvolle KI betonen die Notwendigkeit von Rahmenbedingungen für die verantwortungsvolle Einführung von KI, um Transparenz, Fairness und Verantwortlichkeit in KI-Systemen zu gewährleisten und Innovationen mit dem Schutz der Bürgerrechte und Datenschutz in Einklang zu bringen.

Im Januar 2025 wurde das IndiaAI Safety Institute gegründet, um eine sichere, ethische und sozial fundierte Entwicklung von KI zu fördern. Die Coalition for Responsible Evolution of AI (CoRE-AI) wurde im Juli 2024 gegründet und vereint mehr als 30 Stakeholder – darunter Google, Microsoft, Infosys, IIM Bangalore und wichtige KI-Start-ups – um freiwillige Richtlinien und Governance-Rahmen zu gestalten. Das Ministerium für Elektronik und Informationstechnologie veröffentlichte Anfang 2025 den Entwurf eines KI-Regulierungsgesetzes zur öffentlichen Konsultation – es enthält Bestimmungen ähnlich dem EU-Gesetz, die sich auf einen risikobasierten Ansatz, verpflichtende Registrierung für hochriskante Systeme, menschliche Aufsicht, Datenschutz usw. konzentrieren.

Schlussfolgerung

Das EU-Gesetz lässt eine Lücke zwischen Sicherheitskonformität und Verantwortung, wenn Schäden auftreten. Die ursprünglich geplante AI-Haftungsrichtlinie, die darauf abzielte, Ansprüche zu vereinheitlichen, wurde zurückgezogen. Es ist auch stark auf Prozesse fokussiert, aber schwach in Bezug auf Ergebnisse. Indien sollte diese Schwächen als Leitfaden nutzen, um ein faires Regulierungssystem zu schaffen. Um dies zu erreichen, müssen klare Regeln festgelegt werden, wer zahlt, wenn KI Fehler macht, damit die Opfer Entschädigung erhalten können. Anstatt sich auf berechnungsbasierte Schwellenwerte zu verlassen, sollten auch kontextbezogene Kriterien priorisiert werden, die die Risikobewertung mit den Einsatzbedingungen kombinieren. Indien könnte die EU übertreffen, indem es die Urheberrechts- und Datenverwendungsregelungen klarstellt und ein zentrales nationales KI-Büro wie die EAIB schafft.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...