Die Governance-Lücke der Pentagon-Anthropic-Kontroverse

Expertenkommentar: Der Streit zwischen dem Pentagon und Anthropic spiegelt Governance-Fehler wider – mit weitreichenden Konsequenzen über Washington hinaus

Am 4. März hat das Pentagon offiziell bekannt gegeben, dass Anthropic als Risiko für die nationale Sicherheit in der Lieferkette eingestuft wurde, ein beispielloser Schritt gegen ein amerikanisches Unternehmen.

Die Einstufung erfolgte nach der Weigerung von Anthropic, Vertragsbedingungen zu akzeptieren, die die Nutzung seiner Technologie für „alle rechtmäßigen Zwecke“ erlauben. Der CEO insistierte auf der Beibehaltung von zwei roten Linien, die Massenüberwachung und vollautonome Waffensysteme verbieten. Nach intensiven Verhandlungen kündigte der US-Verteidigungsminister an, dass das Verteidigungsministerium innerhalb von sechs Monaten von den Produkten von Anthropic absehen werde, obwohl Berichte über die extensive Nutzung des Modells Claude des Unternehmens im laufenden Krieg mit Iran vorliegen.

Ethik versus nationale Sicherheit

Der Streit wird allgemein als ein Konflikt zwischen Ethik und nationaler Sicherheit charakterisiert. In Wirklichkeit weist er jedoch auf tiefere strukturelle Herausforderungen hin. Der Streit zwischen dem Pentagon und Anthropic offenbart langanhaltende Governance-Lücken bei der Integration von KI in militärische und nachrichtendienstliche Operationen – Lücken, die bereits vor dieser Administration bestehen und die gegenwärtige Kontroversen überdauern werden.

In Abwesenheit klarer institutioneller Rahmenbedingungen haben private Unternehmen wie Anthropic versucht, Einschränkungen durch Nutzungsrichtlinien zu imposieren, die definieren, wie ihre Modelle eingesetzt werden dürfen. Der Streit verdeutlicht die Mängel dieses Ansatzes. Vertragliche Mechanismen sind kein Ersatz für Governance-Rahmen, die mit den operativen Realitäten des KI-gestützten Krieges Schritt halten können.

Rechtliche und operationale Herausforderungen

Das vom Verteidigungsminister angeführte Mechanismus, 10 USC §3252, ist ein Gesetz zur Sicherheit der Lieferkette, das darauf abzielt, ausländische Bedrohungen für die Integrität von Verteidigungssystemen zu adressieren. Seine Anwendung auf ein inländisches amerikanisches Unternehmen stellt einen markanten Bruch mit der bisherigen Praxis dar, und die Beweislage, die eine vertragliche Meinungsverschiedenheit über Nutzungsbedingungen als gleichwertig mit ausländischem Kompromiss oder Sabotage behandelt, wurde noch nicht öffentlich dargelegt.

Die Trump-Administration hatte ursprünglich die Nutzungsbeschränkungen von Anthropic akzeptiert, als der Vertrag über 200 Millionen Dollar im Juli 2025 vergeben wurde. Das Memorandum zur KI-Strategie des Pentagons vom Januar 2026 änderte jedoch die Art und Weise, wie das Verteidigungsministerium mit Auftragnehmern arbeitet, indem es anordnete, dass innerhalb von 180 Tagen eine standardisierte Klausel für „jegliche rechtmäßige Nutzung“ in alle Verträge aufgenommen werden muss. Dieses Memorandum stellt einen breiteren Vorstoß innerhalb des Ministeriums dar, sich auf die „Beschleunigung der militärischen KI-Dominanz Amerikas“ zu konzentrieren, um China zu überholen, selbst wenn Sicherheitsvorkehrungen vollständig eingerichtet sind.

Strukturelle Probleme und geopolitische Implikationen

Der Streit hebt ein grundlegendes Problem hervor: Die bestehenden Gesetze lassen erhebliche Lücken in der Governance von KI-gestützter innerstaatlicher Überwachung und autonomen Waffensystemen. Diese Lücken sind in einigen Fällen umstritten. Die interne Richtlinie des Verteidigungsministeriums, die vorschreibt, dass tödliche autonome Systeme rigorosen Tests vor der Bereitstellung unterzogen werden müssen, existiert als interne Politik und nicht als Gesetz. Die Aktualisierung solcher Richtlinien erfordert typischerweise einen langwierigen politischen Prozess, der nicht dafür ausgelegt ist, mit den schnell voranschreitenden technologischen Möglichkeiten Schritt zu halten.

Die Vereinbarung mit einem Mitbewerber von Anthropic wird wahrscheinlich diese Lücken nicht schließen. Der Mitbewerber akzeptierte die Klausel für „jegliche rechtmäßige Nutzung“, während Sicherheitsvorkehrungen verhandelt wurden, die Berichten zufolge Einschränkungen für Massenüberwachung und Verbote für vollautonome Waffensysteme umfassen. Die vollständigen Bestimmungen sind ungewiss, da der Vertrag nicht öffentlich veröffentlicht wurde. Es ist auch bemerkenswert, dass weder die Vereinbarungen mit Anthropic noch die mit dem Mitbewerber die Massenüberwachung ausländischer Staatsangehöriger verbieten.

Folgen für internationale Partner

Alliierte Regierungen sehen sich nun den Auswirkungen des Streitfalls gegenüber. Die Einstufung von Anthropic als Risiko für die Lieferkette könnte rechtliche, operationale und finanzielle Herausforderungen für Partner schaffen, die Anthropic-Modelle in gemeinsamen Plattformen integriert haben. Diese Situation wirft Fragen über den rechtlichen Status der fortgesetzten Nutzung und die Kostenübernahme auf. Der Vorfall wirft auch breitere Debatten über die Interoperabilität der Verteidigung und die Bedingungen auf, unter denen US-Technologiepartnerschaften in Anspruch genommen werden können.

Schlussfolgerung

Der Streit zwischen dem Pentagon und Anthropic macht die Governance-Lücke im Bereich der militärischen KI unmöglich zu ignorieren. Die Vereinigten Staaten setzen fortschrittliche KI in entscheidenden militärischen und nachrichtendienstlichen Umgebungen ein, ohne die gesetzlichen Rahmenbedingungen oder strukturierten Überwachungsprozesse, die die Dimensionen und Risiken der Bereitstellung erfordern. Die politischen Entscheidungsträger in den USA und bei den Alliierten müssen nun bestimmen, wie diese Lücken angegangen werden sollen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...