Auswirkungen des EU AI-Gesetzes auf Videospielentwickler

Einfluss des EU AI-Gesetzes auf Videospielentwickler

Das Regulationsgesetz (EU) 2024/1689 vom 13. Juni 2024, das harmonisierte Regeln für künstliche Intelligenz (KI) festlegt, hat weitreichende Auswirkungen auf Videospielentwickler. Immer mehr Entwickler integrieren KI-Systeme in ihre Spiele, um Hintergründe, Nicht-Spieler-Charaktere (NPCs) und die Geschichten von Objekten zu generieren. Einige dieser Anwendungsfälle unterliegen bestimmten Vorschriften und schaffen Verpflichtungen gemäß dem AI-Gesetz.

Das AI-Gesetz trat am 1. August 2024 in Kraft und wird schrittweise über die nächsten zwei Jahre angewendet. Die Anwendung der Bestimmungen hängt hauptsächlich von zwei Faktoren ab: der Rolle des Videospielentwicklers und dem Risikolevel der KI.

Die Rolle des Videospielentwicklers

Artikel 2 des AI-Gesetzes definiert den Anwendungsbereich der Regelung und bestimmt, wer dem AI-Gesetz unterstellt werden kann. Videospielentwickler fallen möglicherweise unter zwei dieser Kategorien:

  • Anbieter von KI-Systemen: Entwickler von KI-Systemen, die diese auf dem EU-Markt bereitstellen oder unter ihrem eigenen Namen oder Markenzeichen in Betrieb nehmen, unabhängig davon, ob dies kostenpflichtig oder kostenlos erfolgt (Artikel 3(3) AI-Gesetz).
  • Betreiber von KI-Systemen: Nutzer von KI-Systemen im Rahmen einer beruflichen Tätigkeit, sofern sie in der EU ansässig sind oder Benutzer des KI-Systems in der EU haben (Artikel 3(4) AI-Gesetz).

Daher werden Videospielentwickler als (i) Anbieter betrachtet, wenn sie ihr eigenes KI-System entwickeln, und als (ii) Betreiber, wenn sie ein bestehendes KI-System eines Dritten in ihre Spiele integrieren.

Das Risikolevel der KI und die damit verbundenen Verpflichtungen

Das AI-Gesetz klassifiziert KI-Systeme in vier Kategorien, basierend auf dem damit verbundenen Risiko (Artikel 3(1) AI-Gesetz). Die Verpflichtungen für wirtschaftliche Akteure variieren je nach Risikoebene der verwendeten KI-Systeme:

  • KI-Systeme mit unzulässigen Risiken sind verboten (Artikel 5 AI-Gesetz). Im Videospielsektor sind die relevantesten Verbote die Bereitstellung oder Nutzung von KI-Systemen, die manipulative Techniken anwenden oder die Verwundbarkeiten von Personen ausnutzen und dadurch erheblichen Schaden verursachen. Ein Beispiel ist die Verwendung von KI-generierten NPCs, die Spieler zu erhöhten Ausgaben im Spiel manipulieren.
  • KI-Systeme mit hohem Risiko (Artikel 6, 7 und Anhang III AI-Gesetz) lösen strenge Verpflichtungen für Anbieter und in geringerem Maße für Betreiber aus (Abschnitte 2 und 3 AI-Gesetz). Relevante hochriskante KI-Systeme im Videospielbereich sind solche, die ein erhebliches Risiko für die Gesundheit, Sicherheit oder die grundlegenden Rechte natürlicher Personen darstellen. Dies könnte beispielsweise KI-Systeme umfassen, die für die emotionale Erkennung verwendet werden (Anhang III(1)(c) AI-Gesetz).

Die Liste der Verpflichtungen für Anbieter hochriskanter KI-Systeme umfasst die Implementierung von Qualitäts- und Risikomanagementsystemen, angemessene Datenverwaltung und -managementpraktiken sowie technische Dokumentationen. Betreiber hochriskanter KI-Systeme müssen insbesondere das System gemäß den gegebenen Anweisungen betreiben und die Operation des Systems überwachen.

  • KI-Systeme mit spezifischem Transparenzrisiko umfassen Chatbots, KI-Systeme zur Generierung synthetischer Inhalte oder Deepfakes sowie Systeme zur emotionalen Erkennung. Sie lösen begrenzte Verpflichtungen aus, die in Artikel 50 AI-Gesetz aufgelistet sind.
  • KI-Systeme mit minimalem Risiko unterliegen nicht den Vorschriften des AI-Gesetzes. Diese Kategorie umfasst alle anderen KI-Systeme, die nicht in die oben genannten Kategorien fallen.
  • Die EU hat erklärt, dass KI-unterstützte Videospiele grundsätzlich keinen Verpflichtungen gemäß dem AI-Gesetz unterliegen, Unternehmen jedoch freiwillig zusätzliche Verhaltenskodizes annehmen können. Dabei ist zu beachten, dass in spezifischen Fällen das AI-Gesetz Anwendung finden kann. Die Verpflichtung zur KI-Bildung gilt unabhängig vom Risiko des Systems, einschließlich minimalem Risiko.

    Die Verpflichtung zur KI-Bildung

    Die Verpflichtung zur KI-Bildung tritt ab Februar 2025 in Kraft (Artikel 113 a) AI-Gesetz) und gilt sowohl für Anbieter als auch für Betreiber (Artikel 4 AI-Gesetz), unabhängig vom Risiko der KI. KI-Bildung wird definiert als die Fähigkeiten, Kenntnisse und das Verständnis, die es Anbietern, Betreibern und betroffenen Personen ermöglichen, eine informierte Implementierung von KI-Systemen vorzunehmen.

    Das endgültige Ziel ist sicherzustellen, dass das Personal der Videospielentwickler in der Lage ist, informierte Entscheidungen in Bezug auf KI zu treffen, wobei technisches Wissen, Erfahrung, Ausbildung und der Kontext, in dem das KI-System verwendet wird, zu berücksichtigen sind.

    Das AI-Gesetz gibt keine spezifischen Anweisungen dazu, wie Anbieter und Betreiber der Verpflichtung zur KI-Bildung nachkommen sollten. Praktisch können verschiedene Schritte unternommen werden, um KI-Bildung zu erreichen, wie z.B.:

    • Feststellung, wie und welche Mitarbeiter derzeit KI verwenden oder planen, dies in naher Zukunft zu tun;
    • Bewertung des aktuellen KI-Wissens der Mitarbeiter zur Identifizierung von Lücken (z.B. durch Umfragen oder Quiz-Sitzungen);
    • Anbieten von Schulungsaktivitäten und Materialien für Mitarbeiter, die KI verwenden, um die Grundlagen der KI zu vermitteln.

    Fazit

    Die Regulierung von KI-Systemen in der EU hat potenziell erhebliche Auswirkungen auf Videospielentwickler, abhängig davon, wie KI-Systeme in bestimmten Videospielen eingesetzt werden. Es ist noch früh für das AI-Gesetz, und wir beobachten diesen Bereich genau, insbesondere da sich das AI-Gesetz weiterentwickelt, um sich neuen Technologien anzupassen.

    More Insights

    EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

    Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

    Quebecs KI-Politik für Hochschulen und Cégeps

    Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

    Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

    Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

    Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

    Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

    Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

    Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

    Neue AI-Strategie: Technisches Sekretariat statt Regulator

    Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

    KI-Sicherheit als Motor für Innovation in Schwellenländern

    Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

    AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

    Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...