Entwurf der KI-Klausel der GSA vor der bevorstehenden MAS-Aktualisierung

GSA veröffentlicht Entwurf einer KI-Klausel vor bevorstehender MAS-Aktualisierung

Nach der öffentlichen Trennung der Regierung von Anthropic hat die GSA einen Entwurf von Bedingungen für künstliche Intelligenz („KI“) veröffentlicht, die Teil der bevorstehenden Aktualisierung des Multiple Award Schedule („MAS“) sein sollen. Diese Aktualisierung ist derzeit für Ende März oder April 2026 geplant. MAS-Vertragspartner sollten Folgendes beachten: Die Entwurfsklausel, GSAR 552.239-7001, Basisabsicherung von KI-Systemen (Februar 2026) (GSAR-Abweichung), stellt den umfassendsten Versuch dar, die Verpflichtungen der Auftragnehmer beim Einsatz von KI-Funktionen im Rahmen eines Bundesvertrags zu definieren.

Hintergrund: Fokus auf den Einkauf von KI durch die Bundesregierung

Die Veröffentlichung der Klausel erfolgt zu einem Zeitpunkt, an dem das öffentliche Interesse am Einkauf von KI-Tools durch die Bundesregierung gestiegen ist. Kürzlich erhielten alle Bundesbehörden den Auftrag, die Nutzung der Technologie von Anthropic einzustellen, nachdem das Unternehmen mit dem Verteidigungsministerium über die Verwendung seines großen Sprachmodells („LLM“) in Konflikt geraten war. Der Konflikt entstand Berichten zufolge aus dem Ultimatum des Ministeriums, das Unternehmen zuzulassen, die KI-Modelle „für alle rechtmäßigen Zwecke“ ohne Einschränkungen zu verwenden, während Anthropic Ausnahmen beantragte, die bestimmte Nutzungen seines Systems untersagen würden, auch wenn diese Nutzungen ansonsten rechtmäßig wären. Die Meinungsverschiedenheit führte dazu, dass das Verteidigungsministerium Anthropic als „Risiko für die Lieferkette“ einstufte und die Behörden anwies, die Technologie innerhalb von sechs Monaten nicht mehr zu verwenden.

Diese Episode verdeutlicht die wachsende Spannung zwischen kommerziellen KI-Anbietern, von denen viele Nutzungsbeschränkungen durch kommerzielle Bedingungen auferlegen, und den Erwartungen der Bundesregierung, dass die im Rahmen von Bundesverträgen beschafften Technologien für „alle rechtmäßigen Regierungszwecke“ verfügbar sein müssen.

Der Entwurf der Klausel

Die Entwurfsklausel gilt für alle MAS-Vertragspartner, die KI-Systeme im Rahmen der Vertragserfüllung bereitstellen oder nutzen – unabhängig davon, ob die KI direkt an die Regierung geliefert, in die Arbeitsabläufe des Auftragnehmers eingebettet, von Subunternehmern betrieben oder von Drittanbietern „Service Providers“ lizenziert wird. Die Klausel definiert einen „Service Provider“ als „eine Entität, die direkt oder indirekt ein KI-System bereitstellt, betreibt oder lizenziert, aber nicht Vertragspartei ist.“ Service Providers „können Subunternehmer sein oder auch nicht.“

Die Klausel macht den Auftragnehmer weiterhin verantwortlich dafür, die Einhaltung der Klausel durch die Service Providers sicherzustellen, selbst wenn diese nicht „Subunternehmer“ sind und der Auftragnehmer keine Kontrolle über das zugrunde liegende Modell oder die Infrastruktur hat.

Reihenfolge der Abfolge: Die Klausel der GSA hat Vorrang vor den Standardbedingungen der KI-Anbieter

Von entscheidender Bedeutung ist, dass die Klausel eine Bestimmung zur Reihenfolge der Abfolge enthält, die darauf abzielt, widersprüchliche kommerzielle Bedingungen und Konditionen zu überstimmen – einschließlich der von KI-Dienstanbietern auferlegten Standardbedingungen. Wo die GSA-Klausel mit den Standardbedingungen eines KI-Anbieters in Konflikt steht, hat die GSA-Klausel Vorrang.

Diese Bestimmung zur Reihenfolge der Abfolge, kombiniert mit der Anforderung, dass der Auftragnehmer für die Einhaltung der Klausel durch den Service Provider verantwortlich ist, bedeutet, dass die GSA im Wesentlichen von den MAS-Vertragspartnern verlangt, sicherzustellen, dass die vorgelagerten KI-Anbieter (wie OpenAI, Google, Microsoft usw.) die Klausel einhalten – oder die Nutzung der KI-Systeme während der Vertragserfüllung einzustellen.

Eigentum der Regierung: „Regierungsdaten“ und „Maßgeschneiderte Entwicklungen“

Die Regierung beansprucht „vollständiges Eigentum“ an allen „Regierungsdaten“ und „maßgeschneiderten Entwicklungen.“ Regierungsdaten umfassen „Dateninputs“ (Inhalte, die von oder für die Regierung in das KI-System eingegeben werden) sowie „Datenoutputs“ (Inhalte, die vom KI-System im Rahmen der Vertragserfüllung generiert werden).

Maßgeschneiderte Entwicklungen sind definiert als Änderungen, Anpassungen, Konfigurationen oder Verbesserungen von KI-Systemen oder damit verbundenen Implementierungen oder Arbeitsabläufen sowie alle damit verbundenen Arbeitsergebnisse oder Lieferungen, die für die Regierung im Rahmen des Vertrags entwickelt wurden, einschließlich aller „Modelle, die das Ergebnis von Modelltraining oder Feinabstimmung sind.“

Die Klausel erweitert das Eigentum der Regierung an allen „maßgeschneiderten Entwicklungen“, indem sie den Auftragnehmer/Service Provider verpflichtet:

Die maßgeschneiderten Entwicklungen ausschließlich der Nutzung durch die Regierung zu widmen;
Die maßgeschneiderten Entwicklungen als vertrauliche Informationen der Regierung zu behandeln;
Keine Nutzung, Vervielfältigung oder Gewinnung von Nutzen aus maßgeschneiderten Entwicklungen ohne schriftliche Genehmigung des Vertragsoffiziers.

Während der Auftragnehmer oder Service Provider das Eigentum am zugrunde liegenden KI-System und den Basismodellen behält, beansprucht die Regierung das Eigentum an allen feinabgestimmten Derivaten, Konfigurationen und Arbeitsabläufen, die speziell für sie im Rahmen des Vertrags entwickelt wurden.

Lizenz der Regierung: Nutzung des KI-Systems für „alle rechtmäßigen Regierungszwecke“

Die Entwurfsklausel enthält eine umfassende Lizenz, die die Auseinandersetzung mit Anthropic widerspiegelt: Der Auftragnehmer muss der Regierung eine „unwiderrufliche, lizenzfreie, nicht-exklusive Lizenz zur Nutzung des KI-Systems für die Dauer des Vertrags für alle rechtmäßigen Regierungszwecke“ gewähren.

Diese Lizenz umfasst das Recht:

Das KI-System zu betreiben und darauf zuzugreifen;
„Dateninputs“ einzugeben und „Datenoutputs“ zu erhalten;
autorisierten Regierungsangestellten und Auftragnehmern die Nutzung des KI-Systems zu gestatten;
das KI-System mit Regierungssystemen „sofern notwendig für alle rechtmäßigen Regierungszwecke“ zu integrieren.

Diese Bestimmungen sind weit gefasst. Die Vorschrift bezüglich Dateninputs und -outputs geht jedoch noch weiter: „Das KI-System darf sich nicht weigern, Datenoutputs zu produzieren oder Analysen basierend auf den diskretionären Richtlinien des Auftragnehmers oder Service Providers durchzuführen.“ Mit anderen Worten, öffentliche „Sicherheit,“ Inhaltsmoderation oder Modellvorgaben dürfen rechtmäßige Regierungsaufgaben nicht blockieren. Eine Neutrainierung des Modells oder eine Änderung der Modellgewichte ist nicht erforderlich, um die Einhaltung sicherzustellen.

Offenlegung der Nutzung aller KI-Systeme und Verwendung nur „amerikanischer KI-Systeme“

Die Entwurfsklausel verlangt von den Auftragnehmern, dem Vertragsoffizier spätestens 30 Tage nach der Vergabe alle KI-Systeme, die in der Vertragserfüllung verwendet werden, offenzulegen und ob diese Systeme „modifiziert oder konfiguriert wurden, um den Anforderungen eines nicht-US-Bundesgesetzes oder einer kommerziellen Compliance- oder Regulierungsstruktur zu entsprechen.“

Die Entwurfsklausel verbietet die Nutzung „ausländischer KI-Systeme“ in der Vertragserfüllung, einschließlich „aller KI-Komponenten, die von“ nicht-US-Entitäten hergestellt, entwickelt oder kontrolliert werden.

Die Entwurfsklausel präzisiert nicht, wann ein KI-System als „in den USA entwickelt und produziert“ gilt, noch was „Herstellung, Entwicklung oder Kontrolle“ durch nicht-US-Entitäten bedeutet.

Umgang und Verarbeitung von Regierungsdaten

Sofern nicht ausdrücklich anders angewiesen, verlangt die Entwurfsklausel von dem Auftragnehmer und Service Provider:

Angemessene Sicherheitsvorkehrungen zum Schutz der Regierungsdaten zu implementieren;
„Eyes off“-Verfahren zur Datenhandhabung zu implementieren, die eine menschliche Überprüfung der Regierungsdaten „außer wenn unbedingt notwendig“ einschränken;
Werkzeuge bereitzustellen, die es der Regierung ermöglichen, detaillierte Aufzeichnungen über alle Verarbeitungsaktivitäten im Zusammenhang mit Regierungsdaten zu führen;
Angemessene technische und organisatorische Maßnahmen zu ergreifen, um sicherzustellen, dass Regierungsdaten logisch segregiert werden;
Nach Abschluss/Beendigung des Vertrags alle Regierungsdaten und maßgeschneiderten Entwicklungen sicher zu löschen und die Löschung schriftlich dem Vertragsoffizier zu bestätigen.

Fazit

Die vorgeschlagene Klausel, obwohl noch im Entwurf, stellt einen bedeutenden Schritt weg von den Standardpraktiken des gewerblichen Einkaufs der Regierung und hin zu „regierungszentrierten“ KI-Bedingungen dar. Kommentare zu dem Entwurf sind bis Freitag, den 20. März, bei der GSA einzureichen.

MAS-Vertragspartner: Es ist an der Zeit, alle in der Vertragserfüllung verwendeten KI-Systeme (einschließlich eingebetteter Tools) zu inventarisieren und die Bedingungen und Konditionen zu überprüfen. Dies wird insbesondere in GenAI-Systemen kompliziert, bei denen das System automatisch (ohne Eingabe des Benutzers) bestimmte LLM-Modelle auswählt, wenn es eine Antwort vorbereitet. Wenn MAS-Vertragspartner nicht sicherstellen können, dass die Regierung alle Inhalte besitzt, die von oder für die Regierung in das KI-System eingegeben werden, sowie Inhalte, die vom KI-System im Rahmen der Vertragserfüllung generiert werden, könnte dies sie daran hindern, solche Systeme zu nutzen, falls die vorgeschlagene Klausel angenommen wird. Ähnlich, wenn MAS-Vertragspartner nicht sicherstellen können, dass die Regierung das Eigentum an allen Änderungen, Anpassungen, Konfigurationen oder Verbesserungen der verwendeten KI-Systeme besitzt, könnten sie daran gehindert werden, solche Systeme zu nutzen. Angesichts der weitreichenden Eigentumsanforderungen und der Vorgabe, „amerikanische KI-Systeme“ zu verwenden, werden MAS-Vertragspartner vor erheblichen Herausforderungen bei der weiteren Nutzung von KI stehen und möglicherweise gezwungen sein, diese einzustellen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...