Systemische Risiken von KI-Modellen: Leitfaden zur Einhaltung der EU-Vorgaben

AI-Modelle mit systemischen Risiken: Leitlinien zur Einhaltung der EU-AI-Vorschriften

Am 18. Juli 2025 hat die Europäische Kommission neue Richtlinien vorgestellt, die darauf abzielen, AI-Modelle, die als systemisch riskant eingestuft werden, bei der Einhaltung der europäischen AI-Vorschriften zu unterstützen. Diese Initiative folgt auf die Kritik einiger Unternehmen an dem AI-Gesetz, das im vergangenen Jahr in Kraft trat.

Hintergrund des AI-Gesetzes

Das EU-AI-Gesetz wird ab dem 2. August 2026 für AI-Modelle mit systemischen Risiken sowie für Foundation-Modelle wie die von Unternehmen wie Google, OpenAI und Meta Platforms gelten. Diese Regelungen sollen sicherstellen, dass AI-Technologien, die erhebliche Auswirkungen auf die öffentliche Gesundheit, die Sicherheit, die Grundrechte oder die Gesellschaft haben könnten, angemessen reguliert werden.

Definition und Anforderungen

Die Kommission definiert AI-Modelle mit systemischem Risiko als solche mit sehr fortschrittlichen Rechenfähigkeiten, die potenziell erhebliche Auswirkungen auf die Gesellschaft haben können. Die ersten Modelle dieser Kategorie müssen folgende Anforderungen erfüllen:

  • Durchführung von Modellbewertungen
  • Risikobewertung und -minderung
  • Durchführung von adversarial testing
  • Berichterstattung über schwerwiegende Vorfälle an die Kommission
  • Gewährleistung eines angemessenen Cybersicherheitschutzes

Transparenzanforderungen für allgemeine AI

Allgemeine AI (GPAI) oder Foundation-Modelle unterliegen speziellen Transparenzanforderungen. Diese umfassen:

  • Erstellung technischer Dokumentationen
  • Einführung von Copyright-Politiken
  • Bereitstellung detaillierter Zusammenfassungen über die Inhalte, die für das Algorithmus-Training verwendet wurden

Schlussfolgerung

Mit den heutigen Richtlinien unterstützt die Kommission die reibungslose und effektive Anwendung des AI-Gesetzes. Unternehmen haben bis zum 2. August 2026 Zeit, um die gesetzlichen Anforderungen zu erfüllen und sich auf die zukünftigen Herausforderungen im Bereich der künstlichen Intelligenz vorzubereiten.

Die Einhaltung dieser Vorschriften ist entscheidend, um potenzielle Risiken zu minimieren und das Vertrauen der Öffentlichkeit in AI-Technologien zu stärken.

More Insights

So klassifizieren Sie Ihr KI-System unter dem EU KI-Gesetz in Minuten

Der EU AI Act wird die Art und Weise verändern, wie KI in Europa entwickelt, bewertet und bereitgestellt wird. Der EU AI Act Risk Classification Wizard hilft Teams dabei, schnell die Risikokategorie...

KI-Rechtsangleichung im Fokus der AIPPI 2025

Die AIPPI wird vom 13. bis 16. September 2025 in Yokohama, Japan, mit mehr als 2.700 Teilnehmern stattfinden, wobei der Schwerpunkt auf der Harmonisierung von KI-Rechtsvorschriften liegt...

KI-gestützte Überwachung: Sicherheit und Privatsphäre im Gleichgewicht

KI-gestützte Überwachung verspricht in einigen Kontexten echte operationale Vorteile, erfordert jedoch eine sorgfältige Governance, um legitime Sicherheitsgewinne zu bewahren, ohne die Bürgerrechte zu...

Verantwortliche KI im Finanzwesen: Von der Theorie zur Praxis

Die globale Diskussion über künstliche Intelligenz hat eine neue Phase erreicht, in der der Fokus darauf liegt, wie diese Werkzeuge verantwortungsvoll genutzt werden können, insbesondere im...

Zertifizierung für vertrauenswürdige KI und eine nachhaltige Zukunft

Zertifizierungen können Vertrauen in KI-Systeme schaffen, indem sie Standards für Zuverlässigkeit und Erklärbarkeit festlegen, was das Vertrauen der Nutzer stärkt. Regulierung wird zu einem...

Vertrauen in erklärbare KI: Ein Blick auf die Unsichtbaren

Erklärbare KI (XAI) ist entscheidend für den Aufbau von Vertrauen, Gewährleistung von Transparenz und Ermöglichung von Verantwortung in sensiblen Bereichen wie Gesundheitswesen und Finanzen. Die EU...

Verantwortungsvolle KI-Workflows für UX-Forschung

Dieser Artikel untersucht, wie KI verantwortungsvoll in den Arbeitsabläufen der UX-Forschung integriert werden kann, um Geschwindigkeit und Effizienz zu steigern, während gleichzeitig die menschliche...