Grok ist in, Ethik ist aus in der neuen KI-Beschleunigungsstrategie des Pentagon
Die dritte KI-Beschleunigungsstrategie des Pentagon innerhalb von vier Jahren richtet sieben „maßgebliche Projekte“ ein, die „kritische grundlegende Voraussetzungen“ für andere militärische Bemühungen der USA schaffen sollen.
Das sechsseitige Dokument fordert die verschiedenen Abteilungen des Ministeriums auf, das Ziel zu erreichen, ihre Daten innerhalb von vier Jahren zentral für das Training und die Analyse von KI verfügbar zu machen. Es wird jedoch kein Wort über den ethischen Einsatz von KI verloren, und der Begriff der KI-Verantwortung wird in Frage gestellt, während die Verwendung von Modellen, die ideologische „Tuning“-Elemente im Zusammenhang mit Vielfalt, Gleichheit und Integration (DEI) enthalten, verboten wird.
Am gleichen Tag kündigte ein hochrangiger Beamter an, dass die Netzwerke des Pentagon, einschließlich der geheimen, den Zugang zu Grok ermöglichen würden, einem von Elon Musk betriebenen, saudi-arabisch unterstützten KI-Chatbot, der für seine parteiische, sogar nazistische Tendenz bekannt ist und bereitwillig sexuell explizite Bilder von Kindern erstellt.
Gemeinsamkeiten mit der Vorgängerversion
In einigen wichtigen Aspekten ähnelt die neue Strategie ihrer Vorgängerversion aus der Biden-Administration von 2023, die ebenfalls die rasche Einführung von kommerziell verfügbaren KI-Modellen im Militär betonte. Die neue Strategie bietet jedoch viel spezifischere Wege für diese Einführung in verschiedenen militärischen Aktivitäten. Ein Projekt namens „Swarms Forge“ wird neue Wege zur Nutzung von KI im Kampf „iterativ entdecken, testen und skalieren“. Ein weiteres Projekt zielt darauf ab, agentische KI – Grundmodelle, die spezifische Aufgaben autonom ausführen können – für das „unterstützte Kampfmanagement und die Entscheidungsunterstützung, von der Kampagnenplanung bis zur Ausführung von Tötungsketten“ schnell zu integrieren.
Wesentliche Änderungen und Anforderungen
Ein intelligenteres Projekt zielt darauf ab, „Nachrichtendienstinformationen innerhalb von Stunden, nicht Jahren, in Waffen zu verwandeln“; ein anderes soll die Planungsweise dynamischer gestalten. Ein weiteres Projekt sieht vor, KI-Tools – einschließlich Grok und Googles Gemini – für das Personal des Ministeriums auf „Information Level (IL-5) und darüber“ verfügbar zu machen.
Die Strategie legt außerdem fest, Hindernisse für den Datenaustausch innerhalb des Ministeriums zu beseitigen und offene Architektursysteme einzuführen, was im Allgemeinen als vorteilhaft für Start-ups und schnellere Innovationen angesehen wird.
Ethische Überlegungen und Herausforderungen
Unter einem Abschnitt mit dem Titel „Klärung von ‚verantwortungsvoller KI‘ im [Verteidigungsministerium] – Utopischer Idealismus ade, harter Realismus willkommen“ erklärt die Strategie: „Vielfalt, Gleichheit und Integration sowie soziale Ideologie haben im Verteidigungsministerium keinen Platz, daher dürfen wir keine KI-Modelle einsetzen, die ideologisches ‚Tuning‘ enthalten, das ihre Fähigkeit beeinträchtigt, objektiv wahrheitsgemäße Antworten auf Benutzeranfragen zu liefern.“
Die Strategie verlangt außerdem, dass der stellvertretende Verteidigungsminister für Forschung und Technik innerhalb von 180 Tagen „in jeden Vertrag des Verteidigungsministeriums, durch den KI-Dienste beschafft werden, standardmäßige Formulierungen zu ‚jeglichem rechtmäßigen Einsatz‘ aufnehmen muss“, was bedeutet, dass jede Nutzung von KI nur den rechtlichen Standards entsprechen muss, die das Ministerium allgemein für den Einsatz von Gewalt anwendet, unabhängig davon, ob es sich um Menschen handelt oder nicht.
Schlussfolgerung
Die Strategie wird zu einem Zeitpunkt eingeführt, an dem Russland und China ihre eigene KI-Adoption beschleunigen, während das Vertrauen der Öffentlichkeit in KI in der gesamten politischen Landschaft der USA sinkt. Zudem wenden sich viele europäische Verbündete von US-Technologiefirmen ab, aufgrund der aggressiven Haltung der Verwaltung gegenüber Demokratien.