GPAI-Verhaltenskodex: Ein neuer Schritt zur KI-Sicherheit

Die EU AI-Verordnung: Newsletter #82 – GPAI-Verhaltenskodex tritt in Kraft

Am 22. Juli 2025 trat der General-Purpose AI Code of Practice in Kraft, veröffentlicht von der Europäischen Kommission. Dieser freiwillige Kodex soll der Industrie helfen, den Verpflichtungen der AI-Verordnung in Bezug auf Sicherheit, Transparenz und Urheberrecht für allgemein verwendbare KI (GPAI)-Modelle nachzukommen.

Legislative Prozesse

Der Kodex wurde am 10. Juli 2025 veröffentlicht und entstand durch einen mehrstufigen Prozess mit unabhängigen Experten. Die Mitgliedstaaten und die Kommission werden die Angemessenheit des Kodex in den kommenden Wochen bewerten. Nach der Genehmigung können Anbieter von KI-Modellen, die den Kodex freiwillig übernehmen, ihre Übereinstimmung mit der AI-Verordnung demonstrieren und gleichzeitig den Verwaltungsaufwand reduzieren.

Aufruf zur Unterzeichnung des Verhaltenskodex

Das EU AI Office lädt Anbieter von GPAI-Modellen ein, den Verhaltenskodex zu unterzeichnen. Unterzeichner werden am 1. August 2025 öffentlich aufgeführt, einen Tag bevor die Verpflichtungen der AI-Verordnung für GPAI-Anbieter am 2. August 2025 in Kraft treten. Durch die Unterzeichnung signalisieren Anbieter ihre Absicht, den Kodex einzuhalten, und profitieren von einem vereinfachten Verfahren zur Einhaltung der AI-Verordnung.

Richtlinien für GPAI-Anbieter

Die Europäische Kommission hat Richtlinien veröffentlicht, um Anbietern von GPAI-Modellen bei der Einhaltung der AI-Verordnung zu helfen. Diese Richtlinien bieten rechtliche Sicherheit entlang der gesamten KI-Wertschöpfungskette und ergänzen den GPAI-Verhaltenskodex. Die Richtlinien definieren GPAI-Modelle als solche, die mit rechnerischen Ressourcen trainiert wurden, die mehr als 1023 Fließkommaoperationen umfassen und in der Lage sind, Sprache, Text-zu-Bild oder Text-zu-Video-Inhalte zu generieren.

Einrichtung des AI Act Advisory Forum

Die Europäische Kommission hat die Bewerbungen für das Advisory Forum unter der AI-Verordnung geöffnet. Interessierte Stakeholder aus der Zivilgesellschaft, Wissenschaft, Industrie, KMU und Start-ups sind eingeladen, zur verantwortungsvollen Umsetzung der KI-Regulierung beizutragen. Das Forum wird als allgemeines Beratungsgremium für die Kommission dienen und unabhängige technische Expertise zu einer Vielzahl von Fragen der AI-Verordnung anbieten.

Aufruf zur Einreichung von Angeboten für GPAI-Sicherheitsunterstützung

Das EU AI Office hat einen Aufruf zur Einreichung von Angeboten in Höhe von 9 Millionen Euro eröffnet, um technische Unterstützung für die Durchsetzung der AI-Verordnung zu beschaffen. Der Fokus liegt auf der Bewertung und Überwachung systemischer Risiken von GPAI-Modellen auf EU-Ebene. Diese Initiative soll die Fähigkeit des AI Office stärken, die Einhaltung der Vorschriften zu bewerten und zu überwachen, insbesondere in Bezug auf GPAI-Systeme, die erhebliche Risiken für die öffentliche Sicherheit, Sicherheit und grundlegende Rechte darstellen.

Reaktionen der Industrie auf den Verhaltenskodex

Große Technologieunternehmen haben auf den GPAI-Verhaltenskodex reagiert. OpenAI kündigte an, unterzeichnen zu wollen, vorbehaltlich der formalen Genehmigung durch den AI Board. Microsoft zeigte sich ebenfalls positiv, während Meta die Unterzeichnung ablehnte, da sie den Kodex als übergriffig ansah. Branchenverbände äußerten Bedenken hinsichtlich der Umsetzung und der Komplexität der Anforderungen.

Fortschritte in der KI-Sicherheit durch den Verhaltenskodex

Der GPAI-Verhaltenskodex bietet starke Anreize für Entwickler, sicherere Praktiken zu übernehmen. Unternehmen, die den Kodex einhalten, können von der Vermutung der Konformität mit den Artikeln 53 und 55 der AI-Verordnung profitieren. Dies bedeutet, dass Regulierungsbehörden die Einhaltung annehmen, sofern die Standards des Kodex erfüllt werden. Diese Verpflichtung zur Risikomanagementprozesse stellt einen signifikanten Fortschritt in der Entwicklung sicherer KI dar.

More Insights

Risiken der KI: Was Unternehmen ignorieren sollten

Im Jahr 2024 stellte der Softwareanbieter Sage seinen generativen KI-Assistenten ein, nachdem Benutzer berichtet hatten, dass sensible Finanzdaten zwischen Konten geleakt wurden. Unternehmen stehen...

Die Notwendigkeit für KI-Sicherheit: Chancen und Herausforderungen

Die Revolution der künstlichen Intelligenz ist keine ferne Verheißung mehr – sie ist hier und verändert Branchen, Volkswirtschaften und das tägliche Leben. Um die Macht der KI verantwortungsvoll zu...

Künstliche Intelligenz im Polizeiwesen: Chancen und Herausforderungen

Gesetzesvollzugsbehörden nutzen zunehmend künstliche Intelligenz (KI), um ihre Abläufe zu verbessern, insbesondere durch erweiterte Möglichkeiten für prädiktive Polizeiarbeit. Der globale Markt für...

Kenias Führungsrolle bei UN-Vereinbarung zur KI-Governance

Kenia hat einen bedeutenden diplomatischen Erfolg erzielt, nachdem alle 193 Mitgliedstaaten der Vereinten Nationen einstimmig beschlossen haben, zwei wegweisende Institutionen zur Regulierung der...

Stakeholder-Forderung nach einem Rahmen für die KI-Governance

Die Stakeholder forderten die Entwicklung eines Governance-Rahmens für Künstliche Intelligenz (KI), um sicherzustellen, dass diese verantwortungsvoll eingesetzt wird. Diese Aufforderung wurde auf der...

Wichtige Richtlinien für die KI-Einführung im Gesundheitswesen

Die AMA hat Leitlinien für die Einführung und Governance von Künstlicher Intelligenz (KI) in Gesundheitssystemen veröffentlicht, die für CMOs und andere Führungskräfte im Gesundheitswesen wichtig...

UN richtet internationales Gremium zur KI-Governance ein

Die Generalversammlung der Vereinten Nationen hat eine Resolution verabschiedet, die die Modalitäten zur Einrichtung eines unabhängigen internationalen wissenschaftlichen Panels für Künstliche...

Neue Cyberbedrohungen: Von Datenvergiftung zu KI-Agenten

Künstliche Intelligenz (KI)-Tools verbreiten sich rasant in verschiedenen Branchen, was neue Möglichkeiten zur Effizienzsteigerung bietet, aber auch das Risiko von Cyberangriffen erhöht. Während KI...