Regulierung von Künstlicher Intelligenz: Risiken und Chancen

Die Notwendigkeit der Regulierung von KI

Die Künstliche Intelligenz ist die transformativste revolutionäre Technologie unserer Zeit und prägt jeden Bereich menschlichen Handelns. Doch ihre immense Macht birgt auch erhebliche Risiken. Die Intransparenz ihrer Algorithmen verstärkt diese Gefahren – es gibt zahlreiche Fälle, in denen sie der Gesellschaft schwerwiegenden Schaden zugefügt hat. Diese Schäden können sich in Lichtgeschwindigkeit ausbreiten und bieten kaum Spielraum für Korrekturen oder Kursänderungen.

Systemische Risiken

Die Risiken erstrecken sich auch auf systemische Instabilität, wie die KI-gesteuerten finanziellen „Flash-Crashes“ zeigen. Am 6. Mai 2010 fiel der Dow Jones innerhalb von nur 10 Minuten um mehr als 1.000 Punkte und vernichtete etwa 1 Billion Dollar an Eigenkapital, obwohl 70 Prozent der Verluste bis zum Ende des Tages zurückgewonnen wurden. Unreguliert können diese Risiken das Vertrauen in Institutionen untergraben und Märkte destabilisieren. Besonders sinister ist die Fähigkeit, körperliche Gewalt auszuüben. Ein UN-Bericht aus dem Jahr 2020 deutete darauf hin, dass türkisch hergestellte Kargu-2-Drohnen, die mit KI-gestützter Bildverarbeitung betrieben werden, möglicherweise menschliche Kämpfer ohne direkte menschliche Aufsicht angegriffen haben – ein möglicherweise erster dokumentierter Vorfall autonomer tödlicher Gewalt.

Automatisierte Entscheidungsfindung

Berichte aus Gaza in den Jahren 2023-24 deuteten darauf hin, dass Israel ein KI-System namens „Lavender“ verwendet hat, um automatisch Ziellisten für Bombenangriffe zu generieren. Solche automatisierten Entscheidungsprozesse könnten unbeabsichtigte zivile Todesfälle verursacht haben, indem sie die Schwelle für Angriffe senkten und die Moral, Legalität und Verantwortlichkeit bei der Anwendung von Gewalt gegen Zivilisten in Frage stellten. KI-Systeme sind anfällig dafür, die Vorurteile ihrer Schöpfer zu übernehmen und häufig verborgene Vorurteile in ihren Trainingsdaten zu reflektieren, wodurch menschliche Vorurteile reproduziert und verstärkt werden, während sie scheinbare Unparteilichkeit vorgeben.

Gefahren durch Bias und Monopole

Die Skalierbarkeit, Unsichtbarkeit und Geschwindigkeit von KI machen sie gefährlicher; einmal in automatisierte Entscheidungssysteme eingebettet, können voreingenommene Ergebnisse Millionen von Menschen gleichzeitig betreffen. Solche Missbräuche untergraben das Vertrauen, vertiefen Ungleichheiten und perpetuieren systemische Ungerechtigkeiten. Ein Beispiel ist der COMPAS-Algorithmus, der in US-Gerichten zur Vorhersage des Rückfallrisikos verwendet wurde und schwarze Angeklagte unfair als „hochgradig gefährlich“ einstufte, obwohl weiße Angeklagte schlechtere kriminelle Hintergründe hatten.

Ein weiteres ernstes Anliegen ist, dass eine Handvoll großer US-Unternehmen die meisten KI-Ressourcen und Rechenleistungen kontrolliert. Dies schafft erhebliche geopolitische Risiken, zementiert Monopole und vertieft die digitale Kluft. Man kann nicht übersehen, wie Facebooks Algorithmus zur Rohingya-Völkermord in Myanmars Rakhine-Staat im Jahr 2016-17 beigetragen hat. Dieser Algorithmus wurde programmiert, um die Nutzerinteraktion zu steigern und dadurch mehr Werbeeinnahmen zu generieren. Er lernte schnell, dass die Verbreitung von Hass und provokativen Inhalten effizienter zur Steigerung des Engagements führte, was zur Normalisierung von hasserfülltem Inhalt und zur Dehumanisierung der Rohingyas führte. Tausende wurden ermordet und über 700.000 flohen nach Bangladesch.

Dringlichkeit der Regulierung

Die Veröffentlichung von ChatGPT im Jahr 2022 war ein Weckruf – sein Potenzial zur Verbreitung von Fehlinformationen und Hass in der Gesellschaft und zur Untergrabung des demokratischen Prozesses führte zu globalen Forderungen nach KI-Regulierung. Die Europäische Union führte diese Initiative an, indem sie im August 2024 das EU-Gesetz über künstliche Intelligenz verabschiedete. Die Umsetzung seiner wichtigsten Merkmale beginnt im August 2025, mit vollständiger Funktionsfähigkeit bis August 2026.

Im Kern folgt das Gesetz einem risikobasierten Ansatz, der KI-Anwendungen je nach Risiken von minimal bis inakzeptabel kategorisiert und entsprechende Verpflichtungen vorschreibt. Es zielt darauf ab, sicherzustellen, dass KI-Systeme sicher, transparent und nicht diskriminierend sind und von Menschen überwacht werden, um schädliche Ergebnisse zu verhindern. Systeme mit inakzeptablen Risiken werden in der EU vollständig verboten – dazu gehören kognitive Verhaltensmanipulation von Menschen oder spezifischen schutzbedürftigen Gruppen, soziale Bewertung oder Profilierung von Menschen durch Regierungen sowie jegliche manipulative biometrische Überwachung einschließlich Echtzeit-Biometrieerkennungssysteme wie Gesichtserkennung im öffentlichen Raum.

Globale Perspektiven und Herausforderungen

Das Gesetz sieht vor, dass hochriskante KI-Systeme, die die Sicherheit oder die grundlegenden Rechte der Bürger verletzen können, kontinuierlich überwacht werden müssen. Während generative KI, wie ChatGPT, nicht als hochriskant eingestuft wird, muss sie dennoch Transparenzanforderungen erfüllen, indem sie KI-generierte Inhalte offenlegt und verhindert, dass sie illegale oder schädliche Inhalte erzeugt. Inhalte, die mit Hilfe von KI erzeugt oder modifiziert wurden – Bilder, Audio- oder Videodateien (wie Deepfakes) – müssen als KI-generiert gekennzeichnet werden. Das Gesetz zielt darauf ab, die Bürger vor Diskriminierung, Datenschutzverletzungen und undurchsichtiger algorithmischer Entscheidungsfindung zu schützen.

Jedes Unternehmen, das KI-Produkte in der EU anbietet, muss diese Anforderungen erfüllen, und ihr Einfluss wird voraussichtlich über Europa hinausreichen und globale Normen für die Governance neuer Technologien prägen, ähnlich wie mit der Allgemeinen Datenschutzverordnung (GDPR), dem Flaggschiffgesetz der EU zum Datenschutz und zur Privatsphäre seit 2018. Das Gesetz sieht auch einen Code of Practice vor, der von großen Unternehmen (Google, Microsoft, OpenAI, Anthropic usw.) unterzeichnet wurde. Meta hat sich geweigert, wird aber trotzdem zur Einhaltung verpflichtet. Es wurde ein neues Governance-Gremium, der Europäische Ausschuss für künstliche Intelligenz (EAIB), gegründet, um die Konsistenz der Umsetzung im gesamten EU-Raum zu koordinieren und zu überwachen.

Kritiker argumentieren, dass diese Regeln die Innovation behindern und hohe Compliance-Kosten für Start-ups auferlegen könnten, was großen Unternehmen einen Vorteil verschafft. Die Trump-Administration möchte, dass die EU einige ihrer Regeln abschafft, die sie als Handelshemmnisse betrachtet, und die Reaktion der EU wird testen, ob sie einen unabhängigen Kurs in der Regulierung von KI einschlagen kann. Bisher konzentrierte sich der Ansatz der USA auf Sicherheit, Standards und agenturgetriebenen Aufsicht anstelle umfassender Regulierung.

Bei dem AI-Gipfel in Paris im Februar 2025 lehnte die USA die Unterzeichnung einer globalen Erklärung zur KI-Governance ab und argumentierte, dass das EU-Gesetz KI-Investitionen behindern, den Wettbewerb reduzieren und Innovationen abschrecken würde. Im April 2025 teilte sie der EU mit, dass ihr Code of Practice übermäßig belastend sei und über den Umfang der Regulierung hinausgehe. Im Juli 2025 begann die Trump-Administration mit einer Reihe aggressiver Deregulierungsmaßnahmen, die eine klare Divergenz vom regulatorischen Ansatz der EU demonstrieren. Ungeachtet Trumps ist die weltweite Meinung, dass KI reguliert werden muss.

Globale Initiativen zur KI-Regulierung

Auf der 2025 World AI Conference in Shanghai stellte China seinen Global AI Governance Action Plan vor, der internationale Zusammenarbeit, Sicherheitsregulierungen und das UN-Engagement in der globalen KI-Governance fördert. Dieser Plan betont auch Aufsicht und Zusammenarbeit – obwohl die Transparenz der chinesischen KI-Entwicklungssysteme fragwürdig bleibt. Brasilien steht ebenfalls kurz davor, sein eigenes risikobasiertes KI-Regulierungsgesetz zu erlassen. Indien hingegen hat kein spezielles KI-Gesetz. Die NITI Aayog’s Nationale KI-Strategie von 2018 und das Papier von 2021 zu den Grundsätzen für verantwortungsvolle KI betonen die Notwendigkeit von Rahmenbedingungen für die verantwortungsvolle Einführung von KI, um Transparenz, Fairness und Verantwortlichkeit in KI-Systemen zu gewährleisten und Innovationen mit dem Schutz der Bürgerrechte und Datenschutz in Einklang zu bringen.

Im Januar 2025 wurde das IndiaAI Safety Institute gegründet, um eine sichere, ethische und sozial fundierte Entwicklung von KI zu fördern. Die Coalition for Responsible Evolution of AI (CoRE-AI) wurde im Juli 2024 gegründet und vereint mehr als 30 Stakeholder – darunter Google, Microsoft, Infosys, IIM Bangalore und wichtige KI-Start-ups – um freiwillige Richtlinien und Governance-Rahmen zu gestalten. Das Ministerium für Elektronik und Informationstechnologie veröffentlichte Anfang 2025 den Entwurf eines KI-Regulierungsgesetzes zur öffentlichen Konsultation – es enthält Bestimmungen ähnlich dem EU-Gesetz, die sich auf einen risikobasierten Ansatz, verpflichtende Registrierung für hochriskante Systeme, menschliche Aufsicht, Datenschutz usw. konzentrieren.

Schlussfolgerung

Das EU-Gesetz lässt eine Lücke zwischen Sicherheitskonformität und Verantwortung, wenn Schäden auftreten. Die ursprünglich geplante AI-Haftungsrichtlinie, die darauf abzielte, Ansprüche zu vereinheitlichen, wurde zurückgezogen. Es ist auch stark auf Prozesse fokussiert, aber schwach in Bezug auf Ergebnisse. Indien sollte diese Schwächen als Leitfaden nutzen, um ein faires Regulierungssystem zu schaffen. Um dies zu erreichen, müssen klare Regeln festgelegt werden, wer zahlt, wenn KI Fehler macht, damit die Opfer Entschädigung erhalten können. Anstatt sich auf berechnungsbasierte Schwellenwerte zu verlassen, sollten auch kontextbezogene Kriterien priorisiert werden, die die Risikobewertung mit den Einsatzbedingungen kombinieren. Indien könnte die EU übertreffen, indem es die Urheberrechts- und Datenverwendungsregelungen klarstellt und ein zentrales nationales KI-Büro wie die EAIB schafft.

More Insights

Verantwortliche KI im Finanzwesen: Von der Theorie zur Praxis

Die globale Diskussion über künstliche Intelligenz hat eine neue Phase erreicht, in der der Fokus darauf liegt, wie diese Werkzeuge verantwortungsvoll genutzt werden können, insbesondere im...

Zertifizierung für vertrauenswürdige KI und eine nachhaltige Zukunft

Zertifizierungen können Vertrauen in KI-Systeme schaffen, indem sie Standards für Zuverlässigkeit und Erklärbarkeit festlegen, was das Vertrauen der Nutzer stärkt. Regulierung wird zu einem...

Vertrauen in erklärbare KI: Ein Blick auf die Unsichtbaren

Erklärbare KI (XAI) ist entscheidend für den Aufbau von Vertrauen, Gewährleistung von Transparenz und Ermöglichung von Verantwortung in sensiblen Bereichen wie Gesundheitswesen und Finanzen. Die EU...

Verantwortungsvolle KI-Workflows für UX-Forschung

Dieser Artikel untersucht, wie KI verantwortungsvoll in den Arbeitsabläufen der UX-Forschung integriert werden kann, um Geschwindigkeit und Effizienz zu steigern, während gleichzeitig die menschliche...

Die Entwicklung von Agentic AI im Bankwesen

Agentic AI revolutioniert die Bankenbranche, indem es autonome Systeme bereitstellt, die Entscheidungen treffen und Maßnahmen mit minimalem menschlichen Eingriff ergreifen. Diese Technologie...

KI-gestützte Compliance: Schlüssel zu skalierbarer Krypto-Infrastruktur

Die explosive Wachstums der Krypto-Industrie bringt zahlreiche regulatorische Herausforderungen mit sich, insbesondere im grenzüberschreitenden Betrieb. KI-native Compliance-Systeme sind entscheidend...

ASEANs Weg zur KI-Governance: Uneben, aber im Aufwind

Die ASEAN und ihre Mitgliedsstaaten verfolgen einen innovationsfreundlichen Ansatz zur künstlichen Intelligenz (KI), um die Region in Richtung einer vollständig digitalen Wirtschaft zu bringen...