Ein globaler Standard setzen | Umfassende Regulierung der künstlichen Intelligenz
Der EU AI Act: Was er bewirkt
Der AI Act etabliert einen regulatorischen Rahmen für künstliche Intelligenzsysteme und setzt Standards basierend auf der Art ihrer Anwendung und dem Risiko, das sie darstellen.
Verbotene Praktiken
In seiner strengsten Form verbietet der Act KI-Anwendungen, die grundlegende Rechte, insbesondere die Privatsphäre, verletzen.
- Biometrische Überwachung in öffentlichen Räumen, wie Gesichtserkennung oder Ganganalyse, die zur Identifizierung und Verfolgung von Personen ohne deren Zustimmung verwendet werden – Praktiken, die ernsthafte Bedenken hinsichtlich der Privatsphäre und der Bürgerrechte aufwerfen.
- Soziale Bewertungssysteme, die Individuen basierend auf ihrem Verhalten, Handlungen oder persönlichen Eigenschaften bewerten, um den Zugang zu Dienstleistungen oder Vergünstigungen zu bestimmen oder Strafen zu verhängen. Solche Systeme werden weithin kritisiert, da sie Diskriminierung fördern und Menschenrechte verletzen.
Transparenz
Der Act betont auch die Transparenz in der Entwicklung und Implementierung von KI-Technologien durch:
- Die Förderung von Systemen, die erklärbar, verantwortlich und für das menschliche Verständnis zugänglich sind – weg von undurchsichtigen, „Black-Box“-Modellen.
- Die Anforderung von Klarheit über das Design eines KI-Systems, die Daten, die es verarbeitet, und die Logik hinter seinen Entscheidungen.
Der Act zielt darauf ab, Vertrauen in KI zu schaffen, Fairness zu gewährleisten, die Einhaltung von Vorschriften zu unterstützen und die Identifizierung und Minderung potenzieller Vorurteile zu ermöglichen.
Risikoklassifizierung von KI-Systemen
Der AI Act verwendet einen gestuften, risikobasierten Rahmen zur Regulierung von KI und kategorisiert Systeme in vier verschiedene Klassen basierend auf ihrem potenziellen Einfluss:
- Minimales Risiko: Diese Systeme stellen eine geringe bis keine Bedrohung für Benutzer oder die Gesellschaft dar. Ein Beispiel ist ein KI-Algorithmus, der Videos basierend auf der Sehistorie empfiehlt.
- Begrenztes Risiko: Diese Kategorie umfasst Grundlagenmodelle – großangelegte KI-Systeme, die auf umfangreichen und vielfältigen Datensätzen trainiert wurden. Sie dienen als Rückgrat für viele generative KI-Anwendungen, wie Chatbots, die Benutzer auf Websites unterstützen. Während sie im Allgemeinen sicher sind, erfordern sie Transparenz und Offenlegung, um eine verantwortungsvolle Nutzung sicherzustellen.
- Hohes Risiko: KI-Systeme in dieser Klasse haben das Potenzial, Gesundheit, Sicherheit oder grundlegende Rechte erheblich zu beeinflussen. Beispiele sind Algorithmen, die bei Einstellungen oder Leistungsbewertungen von Mitarbeitern verwendet werden, wo voreingenommene Ergebnisse zu Diskriminierung oder unfairer Behandlung führen können.
- Unakzeptables Risiko: Diese Anwendungen werden als unvereinbar mit den Werten der EU angesehen und sind strengstens verboten. Dazu gehören KI-Systeme, die darauf abzielen, Verhalten zu manipulieren oder Rechte zu verletzen.
Strafen und globale Reichweite
Der AI Act verhängt strenge finanzielle Strafen für schwerwiegende Verstöße, mit Bußgeldern von bis zu 7 % des gesamten globalen Jahresumsatzes eines Unternehmens. Die Bestimmungen gelten nicht nur für in der EU ansässige Organisationen, sondern auch für Unternehmen außerhalb der EU, die KI-Dienste oder -Produkte innerhalb ihrer Grenzen anbieten. Angesichts der Tatsache, dass KI-Technologien seit über fünf Jahrzehnten genutzt werden, könnte die Regulierung bestehende Systeme betreffen, die bereits in verschiedenen Branchen eingesetzt werden.
Versicherungsimplikationen von KI-gesteuerten Risiken
Auslösende Ereignisse
KI-Technologien bringen eine Vielzahl potenzieller Expositionen mit sich, die Versicherungsansprüche auslösen können, darunter:
- Manipulierte und gefälschte Informationen: Deepfake-Videos und Sprachklonen können Sicherheitsverletzungen und komplexe Social-Engineering-Angriffe ermöglichen.
- Halluzinationen und Fehlinformationen: KI-generierte Ausgaben, die falsch oder irreführend sind, können zu Haftung für Direktoren, Offiziere und Fachkräfte führen, die sich bei Entscheidungen auf sie stützen.
- Datenschutzverletzungen: Das Teilen sensibler Daten mit KI-Systemen kann Verträge, Datenschutzgesetze oder regulatorische Verpflichtungen verletzen.
- Urheberrechtsverletzungen: KI-generierte Inhalte können geschützte Vermögenswerte wie Bilder, Code, Musik, Marken oder persönliche Identifikatoren, die in Trainingsdatensätzen verwendet werden, rechtswidrig replizieren oder missbrauchen.
- Modellbias: Systematische Fehler in KI-Modellen können diskriminierende oder ungerechte Ergebnisse produzieren, was Organisationen einem reputativen und rechtlichen Risiko aussetzt.
- Falsche Werbung (KI-Washing): Die Fehlrepräsentation von KI-Fähigkeiten oder die Minimierung der damit verbundenen Risiken kann zu regulatorischen Überprüfungen oder Verbraucheransprüchen führen.
Diese Risiken können zu finanziellen Verlusten, rechtlicher Haftung, Sachschäden oder sogar Körperverletzungen führen – was ein breites Spektrum an Versicherungsschutz impliziert. Relevante Policen können Cyber-Haftpflicht, Directors & Officers (D&O), Fehler & Auslassungen (E&O), Medienhaftpflicht, Arbeitspraktiken-Haftpflicht (EPL), Produkt-Haftpflicht und allgemeine Haftpflicht umfassen.
Um diesen neuen Expositionen zu begegnen, wurden spezifische Versicherungsprodukte für KI entwickelt. Versicherungsmakler können Organisationen dabei unterstützen, den passenden Versicherungsschutz zu identifizieren und zu sichern, der auf ihr einzigartiges KI-Risikoprofil zugeschnitten ist.
Die sich entwickelnde Landschaft der KI-Regulierung
Die KI-Governance entwickelt sich schnell in allen Rechtsordnungen. Während die Biden-Administration bundesweite Compliance-Regeln eingeführt hat, die am 15. Mai 2025 in Kraft treten sollten, wurden diese Vorschriften von der aktuellen Administration zurückgezogen. Ein Präsidialerlass, der Leitprinzipien für die Entwicklung von KI umreißt, bleibt jedoch in Kraft. Die Trump-Administration hat die Kompetenz in KI als strategische Priorität betont, um die Führungsrolle der USA in der Technologie zu sichern, was umfassende bundesstaatliche Gesetzgebung in naher Zukunft unwahrscheinlich macht.
In Ermangelung bundesstaatlicher Vorgaben haben einzelne Bundesstaaten begonnen zu handeln. Colorado hat eine Gesetzgebung verabschiedet, die dem EU AI Act nachempfunden ist, und andere Bundesstaaten werden voraussichtlich folgen.
International gewinnt die regulatorische Dynamik an Fahrt. Die britischen Behörden verfolgen spezifische KI-Vorschriften, während die Europäische Union einen einheitlichen Rechtsrahmen vorantreibt, der für alle Branchen gilt, unabhängig davon, ob sie reguliert sind oder nicht. Die EU reformiert auch die Haftungsstandards für KI-Systeme und KI-verbesserte Produkte, um den Prozess für Opfer zu vereinfachen, Entschädigungen zu suchen.
Weltweit haben Experten über 70 Jurisdiktionen identifiziert, in denen Entwürfe für KI-Gesetzgebungen überprüft werden. Während das Tempo der KI-Innovation zunimmt, werden sich regulatorische Rahmenbedingungen weiter ausdehnen und prägen, wie Organisationen KI-Technologien entwickeln und einsetzen. Risikofachleute müssen wachsam bleiben und sicherstellen, dass ihre Strategien zur Risikotransfer und Managementprogramme sich im Einklang mit diesem dynamischen regulatorischen Umfeld weiterentwickeln.