Aktualisierte KI-Modellvertragsklauseln der EU veröffentlicht

Aktualisierte AI-Modellvertragsklauseln der EU-Gemeinschaft der Praxis

Die „Marktlage“ für AI-Vertragsbedingungen entwickelt sich kontinuierlich weiter. Während es keinen standardisierten Ansatz gibt – da dieser stark von den Anwendungsfällen, technischen Merkmalen und kommerziellen Bedingungen abhängt – wurden verschiedene Versuche unternommen, Vertragsmodelle vorzuschlagen. Eines der neuesten Modelle stammt von der EU-Gemeinschaft der Praxis für öffentliche Beschaffung von AI, die am 5. März 2025 eine aktualisierte Version ihrer nicht bindenden EU AI Modellvertragsklauseln („MCC-AI“) veröffentlicht hat.

Die MCC-AI sind Vorlagen für vertragliche Klauseln, die von öffentlichen Organisationen genutzt werden sollen, die AI-Systeme von externen Anbietern beschaffen. Ein erster Entwurf wurde im September 2023 veröffentlicht. Diese neueste Version wurde aktualisiert, um mit dem EU AI-Gesetz in Einklang zu stehen, das am 1. August 2024 in Kraft trat, dessen Bestimmungen jedoch schrittweise angewendet werden.

Verfügbare Vorlagen

Es sind zwei Vorlagen verfügbar:

  • Die MCC-AI-Hochrisiko-Vorlage ist für die Beschaffung von AI-Systemen vorgesehen, die gemäß dem AI-Gesetz als „hochriskant“ eingestuft werden. Sie basiert auf den Anforderungen und Pflichten für hochriskante AI-Systeme, die in Kapitel III des AI-Gesetzes festgelegt sind.
  • Die MCC-AI-Leicht-Vorlage ist für die Beschaffung von AI-Systemen gedacht, die nicht als hochriskant eingestuft werden, aber dennoch Risiken für Gesundheit, Sicherheit oder grundlegende Rechte darstellen können. Sie kann auch für die Beschaffung anderer algorithmischer Systeme verwendet werden, die nicht unter die Definition von AI-Systemen gemäß dem AI-Gesetz fallen, aber ähnliche Risiken aufweisen können.

Wie die Hochrisiko-Vorlage basiert auch die MCC-AI-Leicht-Vorlage auf den Anforderungen in Kapitel III des AI-Gesetzes.

Empfehlungen zur Anwendung

Die Kommentierung zu den MCC-AI empfiehlt, die Bestimmungen aus der Vorlage entsprechend der spezifischen Situation auszuwählen und anzuwenden. Es wird davon ausgegangen, dass die Parteien den Anwendungsfall verstehen, unter dem ihre AI fällt. Obwohl die MCC-AI für die Nutzung durch öffentliche Organisationen entwickelt wurden, wird in der Kommentierung angemerkt, dass einige Klauseln auch als nützlicher Referenzrahmen für private Unternehmen dienen können, die Verträge mit externen Anbietern für AI-Systeme abschließen.

Berichterstattung über die Nutzung von MCC-AI

Die Gemeinschaft der Praxis für öffentliche Beschaffung von AI ermutigt öffentliche Stellen, die beabsichtigen, die MCC-AI zu verwenden, ihre Nutzung an die Public Sector Tech Watch zu melden. Über 900 Beispiele für die Nutzung von AI im öffentlichen Sektor wurden bereits in dieser Ressource dokumentiert.

Fazit

Die Strukturierung kommerzieller Verträge im Einklang mit dem EU AI-Gesetz ist ein sich ständig weiterentwickelndes Gebiet. Die MCC-AI bieten eine nützliche Grundlage für öffentliche und private Organisationen, die sich mit den Herausforderungen der AI-Beschaffung auseinandersetzen müssen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...