Anthropic und das Pentagon: Wer bestimmt die Regeln für KI?

Anthropic vs das Pentagon: Ein entscheidender Wettstreit um die Regeln für KI

Es gibt ein Zitat, das oft dem russischen Revolutionär Wladimir Lenin zugeschrieben wird: In Jahrzehnten passiert nichts; und in Wochen passieren Jahrzehnte. Diese Woche fühlte sich wie eine solche Woche an.

Im Kontext des anhaltenden Konflikts im Iran und der erhöhten Spannungen zwischen der Regierung und ihren traditionellen europäischen Verbündeten könnte man die Nachricht übersehen, dass das Pentagon Anthropic, ein KI-Riesenunternehmen, als ‚Lieferkettenrisiko‘ eingestuft hat. Obwohl die Entscheidung mit einer sechsmonatigen Übergangsfrist einhergeht, schließt sie effektiv alle Bundesbehörden und Unternehmen, die mit dem US-Militär Geschäfte machen, von der Nutzung der Technologie von Anthropic aus.

Wie kam es dazu?

Im Juli 2025 vergab das Pentagon Verträge mit einem Höchstbetrag von 200 Millionen Dollar an vier „Frontier“-KI-Unternehmen, wobei Anthropic’s Claude als erstes Modell für den Einsatz in geheimen Netzwerken freigegeben wurde. Diese „Honeymoon“-Phase endete, als das Pentagon einen Standard für „alle rechtmäßigen Zwecke“ forderte, was die Unternehmensrichtlinien durch Regierungsrichtlinien ersetzte. Der CEO von Anthropic, Dario Amodei, hatte klar gemacht, dass seine zwei roten Linien die Nutzung von Claude für die Massenspionage von US-Bürgern und den Einsatz von vollständig autonomen Waffen betreffen, die sich ohne menschliches Eingreifen selbst bedienen können. Nachdem es auf beiden Seiten keine Bewegung gab, wurde die Entscheidung getroffen, Anthropic als Lieferkettenrisiko einzustufen.

Die politischen Implikationen

Es sollte nicht unterschätzt werden, wie persönlich diese Angelegenheit geworden ist. In sozialen Medien kündigte ein hochrangiger Regierungsbeamter die Entscheidung an und bezeichnete die Mitarbeiter von Anthropic als „radikal links“. Währenddessen sprach ein anderer Beamter von Anthropic’s „Meisterklasse in Arroganz und Verrat“ und beschuldigte das Unternehmen, versuchen zu wollen, den Entscheidungsprozess des US-Militärs zu kontrollieren.

Der Hauptnutznießer dieser Situation war OpenAI, das weniger Vorbehalte gegenüber seinen roten Linien hatte und bereitwillig den Vertrag mit dem Pentagon unterzeichnete. Der Leiter von OpenAI, ein ehemaliger Kollege von Amodei, war jetzt ein Konkurrent, nachdem Amodei Anthropic gegründet hatte.

Wer bestimmt die Nutzungsbedingungen für KI?

Im Kern dieser Saga steht die Frage, wer die Nutzungsbedingungen für KI festlegt. Auf der einen Seite haben Regierungen die demokratische Verantwortung, Entscheidungen im nationalen Interesse zu treffen, einschließlich der Nutzung neuer Technologien. Auf der anderen Seite kennen die großen Technologieunternehmen diese Technologie besser als jeder andere und wissen, was sie kann und was nicht. Es ist unmöglich, das aktuelle Wettrennen um KI-Superintelligenz von den geopolitischen Spannungen zwischen den USA und China zu trennen.

Was kommt als Nächstes?

Claude wird weiterhin vom US-Militär im Nahen Osten eingesetzt, und abhängig von der Dauer des Konflikts könnte es notwendig sein, das sechsmonatige Zeitfenster vor der vollständigen Umsetzung der Einstufung von Anthropic als Lieferkettenrisiko zurückzuziehen. Aus geschäftlicher und PR-Perspektive scheint Anthropic gut abzuschneiden und hat in dieser Woche einen Anstieg der Popularität in der Öffentlichkeit erlebt.

Diese Geschichte handelt von Persönlichkeiten, Prinzipien und roten Linien. In der Ära der KI müssen Regierung und Unternehmen zunehmend zusammenarbeiten, um diese Fragen zu navigieren, oder wir riskieren, in den kommenden Jahren auf viele weitere ähnliche Fälle zu stoßen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...