AI-Modelle mit systemischen Risiken: Leitlinien zur Einhaltung der EU-AI-Vorschriften
Am 18. Juli 2025 hat die Europäische Kommission neue Richtlinien vorgestellt, die darauf abzielen, AI-Modelle, die als systemisch riskant eingestuft werden, bei der Einhaltung der europäischen AI-Vorschriften zu unterstützen. Diese Initiative folgt auf die Kritik einiger Unternehmen an dem AI-Gesetz, das im vergangenen Jahr in Kraft trat.
Hintergrund des AI-Gesetzes
Das EU-AI-Gesetz wird ab dem 2. August 2026 für AI-Modelle mit systemischen Risiken sowie für Foundation-Modelle wie die von Unternehmen wie Google, OpenAI und Meta Platforms gelten. Diese Regelungen sollen sicherstellen, dass AI-Technologien, die erhebliche Auswirkungen auf die öffentliche Gesundheit, die Sicherheit, die Grundrechte oder die Gesellschaft haben könnten, angemessen reguliert werden.
Definition und Anforderungen
Die Kommission definiert AI-Modelle mit systemischem Risiko als solche mit sehr fortschrittlichen Rechenfähigkeiten, die potenziell erhebliche Auswirkungen auf die Gesellschaft haben können. Die ersten Modelle dieser Kategorie müssen folgende Anforderungen erfüllen:
- Durchführung von Modellbewertungen
- Risikobewertung und -minderung
- Durchführung von adversarial testing
- Berichterstattung über schwerwiegende Vorfälle an die Kommission
- Gewährleistung eines angemessenen Cybersicherheitschutzes
Transparenzanforderungen für allgemeine AI
Allgemeine AI (GPAI) oder Foundation-Modelle unterliegen speziellen Transparenzanforderungen. Diese umfassen:
- Erstellung technischer Dokumentationen
- Einführung von Copyright-Politiken
- Bereitstellung detaillierter Zusammenfassungen über die Inhalte, die für das Algorithmus-Training verwendet wurden
Schlussfolgerung
Mit den heutigen Richtlinien unterstützt die Kommission die reibungslose und effektive Anwendung des AI-Gesetzes. Unternehmen haben bis zum 2. August 2026 Zeit, um die gesetzlichen Anforderungen zu erfüllen und sich auf die zukünftigen Herausforderungen im Bereich der künstlichen Intelligenz vorzubereiten.
Die Einhaltung dieser Vorschriften ist entscheidend, um potenzielle Risiken zu minimieren und das Vertrauen der Öffentlichkeit in AI-Technologien zu stärken.