EU AI Gesetz: Ein Blick in die Zukunft

EU AI Gesetz Update: Die Zukunft navigieren

Die Europäische Kommission hat bekannt gegeben, dass sie ohne Verzögerung mit der Umsetzung ihrer geplanten KI-Regulierungen fortfahren wird. Dies unterstreicht das Engagement der Europäischen Union, die Entwicklung und den Einsatz von künstlicher Intelligenz (KI) aktiv zu gestalten.

Am 10. Juli 2025 wurde der Code of Practice für allgemeine KI (GPAI) veröffentlicht, zusammen mit Häufig gestellten Fragen (FAQs), um die Einhaltung der Anforderungen des EU AI Gesetzes zu unterstützen.

Schnelle Fakten

  • Die Europäische Kommission hat bestätigt, dass es keine Verzögerung bei der Umsetzung des EU AI Gesetzes geben wird.
  • Am 10. Juli 2025 wurden der GPAI Code of Practice und die dazugehörigen FAQs veröffentlicht, um die Einhaltung der Verpflichtungen des AI Gesetzes zu unterstützen.

Eine klare Haltung zur KI-Regulierung

Die Entscheidung der Kommission, mit den KI-Regulierungen voranzuschreiten, spiegelt ihre proaktive Haltung wider, sicherzustellen, dass KI-Technologien verantwortungsbewusst entwickelt und eingesetzt werden. Die Regulierungen, die seit mehreren Jahren in Arbeit sind, zielen darauf ab, einen umfassenden Rahmen zu schaffen, der die ethischen, rechtlichen und gesellschaftlichen Implikationen von KI adressiert.

Wichtige Technologieunternehmen und europäische Unternehmen haben kürzlich die Kommission aufgefordert, das AI Gesetz um Jahre zu verschieben. Diese Woche erhielt die Kommission die endgültige Version des GPAI Code of Practice, ein wegweisendes Dokument, das als Maßstab für den ethischen Einsatz von KI in Europa dienen soll, um sicherzustellen, dass KI-Technologien transparent, verantwortungsbewusst und im Einklang mit den grundlegenden Menschenrechten entwickelt und genutzt werden.

Der GPAI Code of Practice ist freiwillig für Organisationen, die die Einhaltung des EU AI Gesetzes demonstrieren möchten. Die Kommission erwartet, dass Organisationen, die sich bereit erklären, diese zu befolgen, eine geringere administrative Belastung und mehr rechtliche Sicherheit im Vergleich zu denen haben, die die Einhaltung auf andere Weise nachweisen.

Struktur des GPAI Code of Practice

Der GPAI Code of Practice umfasst drei Kapitel: Transparenz und Urheberrecht, die alle Anbieter von allgemeinen KI-Modellen ansprechen, sowie Sicherheit und Schutz, das nur für eine begrenzte Anzahl von Anbietern der fortschrittlichsten Modelle relevant ist. Innerhalb des Kapitels „Transparenz“ gibt es ein Modell-Dokumentationsformular, das Anbietern hilft, die Anforderungen an die Transparenz des AI Gesetzes zu dokumentieren.

Blick in die Zukunft

Während die Europäische Kommission mit der Umsetzung des GPAI Code of Practice voranschreitet, wird der Fokus auf der Förderung einer Kultur der ethischen KI-Entwicklung liegen. Dies wird einen fortlaufenden Dialog mit den Interessengruppen, kontinuierliches Monitoring von KI-Systemen und regelmäßige Aktualisierungen des GPAI Code of Practice umfassen, um mit technologischen Fortschritten Schritt zu halten. Zudem werden bald Richtlinien der Kommission zu Schlüsselbegriffen im Zusammenhang mit allgemeinen KI-Modellen erwartet.

Wichtige zukünftige Termine

  • 2. August 2025: Ab diesem Datum treten Bestimmungen zur Benachrichtigung der Behörden, allgemeinen KI-Modelle, Governance, Vertraulichkeit und die meisten Strafen in Kraft.
  • 2. Februar 2026: Richtlinien sollten verfügbar sein, die spezifizieren, wie die Bestimmungen zu hochriskanten KI-Systemen einzuhalten sind, einschließlich praktischer Beispiele für hochriskante und nicht hochriskante Systeme.
  • 2. August 2026: Der Rest der Gesetzgebung tritt in Kraft, mit Ausnahme einer geringfügigen Bestimmung zu spezifischen Arten von hochriskanten KI-Systemen, die am 1. August 2027 in Kraft treten wird.

In der Zwischenzeit stellt die endgültige Version des GPAI Code of Practice einen bedeutenden Meilenstein bei der Umsetzung des AI Gesetzes dar.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...