Auswirkungen des EU AI-Gesetzes auf Videospielentwickler

Einfluss des EU AI-Gesetzes auf Videospielentwickler

Das Regulationsgesetz (EU) 2024/1689 vom 13. Juni 2024, das harmonisierte Regeln für künstliche Intelligenz (KI) festlegt, hat weitreichende Auswirkungen auf Videospielentwickler. Immer mehr Entwickler integrieren KI-Systeme in ihre Spiele, um Hintergründe, Nicht-Spieler-Charaktere (NPCs) und die Geschichten von Objekten zu generieren. Einige dieser Anwendungsfälle unterliegen bestimmten Vorschriften und schaffen Verpflichtungen gemäß dem AI-Gesetz.

Das AI-Gesetz trat am 1. August 2024 in Kraft und wird schrittweise über die nächsten zwei Jahre angewendet. Die Anwendung der Bestimmungen hängt hauptsächlich von zwei Faktoren ab: der Rolle des Videospielentwicklers und dem Risikolevel der KI.

Die Rolle des Videospielentwicklers

Artikel 2 des AI-Gesetzes definiert den Anwendungsbereich der Regelung und bestimmt, wer dem AI-Gesetz unterstellt werden kann. Videospielentwickler fallen möglicherweise unter zwei dieser Kategorien:

  • Anbieter von KI-Systemen: Entwickler von KI-Systemen, die diese auf dem EU-Markt bereitstellen oder unter ihrem eigenen Namen oder Markenzeichen in Betrieb nehmen, unabhängig davon, ob dies kostenpflichtig oder kostenlos erfolgt (Artikel 3(3) AI-Gesetz).
  • Betreiber von KI-Systemen: Nutzer von KI-Systemen im Rahmen einer beruflichen Tätigkeit, sofern sie in der EU ansässig sind oder Benutzer des KI-Systems in der EU haben (Artikel 3(4) AI-Gesetz).

Daher werden Videospielentwickler als (i) Anbieter betrachtet, wenn sie ihr eigenes KI-System entwickeln, und als (ii) Betreiber, wenn sie ein bestehendes KI-System eines Dritten in ihre Spiele integrieren.

Das Risikolevel der KI und die damit verbundenen Verpflichtungen

Das AI-Gesetz klassifiziert KI-Systeme in vier Kategorien, basierend auf dem damit verbundenen Risiko (Artikel 3(1) AI-Gesetz). Die Verpflichtungen für wirtschaftliche Akteure variieren je nach Risikoebene der verwendeten KI-Systeme:

  • KI-Systeme mit unzulässigen Risiken sind verboten (Artikel 5 AI-Gesetz). Im Videospielsektor sind die relevantesten Verbote die Bereitstellung oder Nutzung von KI-Systemen, die manipulative Techniken anwenden oder die Verwundbarkeiten von Personen ausnutzen und dadurch erheblichen Schaden verursachen. Ein Beispiel ist die Verwendung von KI-generierten NPCs, die Spieler zu erhöhten Ausgaben im Spiel manipulieren.
  • KI-Systeme mit hohem Risiko (Artikel 6, 7 und Anhang III AI-Gesetz) lösen strenge Verpflichtungen für Anbieter und in geringerem Maße für Betreiber aus (Abschnitte 2 und 3 AI-Gesetz). Relevante hochriskante KI-Systeme im Videospielbereich sind solche, die ein erhebliches Risiko für die Gesundheit, Sicherheit oder die grundlegenden Rechte natürlicher Personen darstellen. Dies könnte beispielsweise KI-Systeme umfassen, die für die emotionale Erkennung verwendet werden (Anhang III(1)(c) AI-Gesetz).

Die Liste der Verpflichtungen für Anbieter hochriskanter KI-Systeme umfasst die Implementierung von Qualitäts- und Risikomanagementsystemen, angemessene Datenverwaltung und -managementpraktiken sowie technische Dokumentationen. Betreiber hochriskanter KI-Systeme müssen insbesondere das System gemäß den gegebenen Anweisungen betreiben und die Operation des Systems überwachen.

  • KI-Systeme mit spezifischem Transparenzrisiko umfassen Chatbots, KI-Systeme zur Generierung synthetischer Inhalte oder Deepfakes sowie Systeme zur emotionalen Erkennung. Sie lösen begrenzte Verpflichtungen aus, die in Artikel 50 AI-Gesetz aufgelistet sind.
  • KI-Systeme mit minimalem Risiko unterliegen nicht den Vorschriften des AI-Gesetzes. Diese Kategorie umfasst alle anderen KI-Systeme, die nicht in die oben genannten Kategorien fallen.
  • Die EU hat erklärt, dass KI-unterstützte Videospiele grundsätzlich keinen Verpflichtungen gemäß dem AI-Gesetz unterliegen, Unternehmen jedoch freiwillig zusätzliche Verhaltenskodizes annehmen können. Dabei ist zu beachten, dass in spezifischen Fällen das AI-Gesetz Anwendung finden kann. Die Verpflichtung zur KI-Bildung gilt unabhängig vom Risiko des Systems, einschließlich minimalem Risiko.

    Die Verpflichtung zur KI-Bildung

    Die Verpflichtung zur KI-Bildung tritt ab Februar 2025 in Kraft (Artikel 113 a) AI-Gesetz) und gilt sowohl für Anbieter als auch für Betreiber (Artikel 4 AI-Gesetz), unabhängig vom Risiko der KI. KI-Bildung wird definiert als die Fähigkeiten, Kenntnisse und das Verständnis, die es Anbietern, Betreibern und betroffenen Personen ermöglichen, eine informierte Implementierung von KI-Systemen vorzunehmen.

    Das endgültige Ziel ist sicherzustellen, dass das Personal der Videospielentwickler in der Lage ist, informierte Entscheidungen in Bezug auf KI zu treffen, wobei technisches Wissen, Erfahrung, Ausbildung und der Kontext, in dem das KI-System verwendet wird, zu berücksichtigen sind.

    Das AI-Gesetz gibt keine spezifischen Anweisungen dazu, wie Anbieter und Betreiber der Verpflichtung zur KI-Bildung nachkommen sollten. Praktisch können verschiedene Schritte unternommen werden, um KI-Bildung zu erreichen, wie z.B.:

    • Feststellung, wie und welche Mitarbeiter derzeit KI verwenden oder planen, dies in naher Zukunft zu tun;
    • Bewertung des aktuellen KI-Wissens der Mitarbeiter zur Identifizierung von Lücken (z.B. durch Umfragen oder Quiz-Sitzungen);
    • Anbieten von Schulungsaktivitäten und Materialien für Mitarbeiter, die KI verwenden, um die Grundlagen der KI zu vermitteln.

    Fazit

    Die Regulierung von KI-Systemen in der EU hat potenziell erhebliche Auswirkungen auf Videospielentwickler, abhängig davon, wie KI-Systeme in bestimmten Videospielen eingesetzt werden. Es ist noch früh für das AI-Gesetz, und wir beobachten diesen Bereich genau, insbesondere da sich das AI-Gesetz weiterentwickelt, um sich neuen Technologien anzupassen.

    More Insights

    Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

    Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

    Neues KI-Governance-Modell gegen Schatten-KI

    Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

    EU plant Aufschub für AI-Gesetzgebung

    Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

    Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

    Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

    Ethische KI als Beschleuniger für Innovation

    Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

    KI im Recruiting: Verborgene Risiken für Arbeitgeber

    Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

    KI im australischen Kabinett: Chancen und Sicherheitsbedenken

    Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...