KI und Ethik: Herausforderungen der modernen Kriegsführung

Geschichte neu geladen: KI stellt Ethik auf die Probe

In jeder Epoche hat das Aufkommen neuer militärischer Technologien Staaten dazu gezwungen, moralische und strategische Fragen erneut zu überdenken. Kommandeure und Gesetzgeber fragten sich stets, ob ein Werkzeug rechtmäßig ist und ob dessen Einsatz weise ist. So veränderte beispielsweise der Steigbügel die berittene Kriegsführung im frühen Mittelalter, da er Reitern Stabilität beim Aufprall verschaffte und die Kavallerie zu einer entscheidenden Kraft machte. Die Verbreitung von Schießpulver hatte Einfluss auf Belagerungen, Staatsbildung und die Hierarchie militärischer Macht in Europa und Asien. Mechanisierte Rüstungen und motorisierte Infanterie in den 1930er Jahren zwangen Regierungen, die Rolle der Kavallerie, Logistik und industrielle Mobilisierung neu zu bewerten. Radar, frühe Computer und nukleare Kommandosysteme schufen im Zweiten Weltkrieg und Kalten Krieg neue Entscheidungsumgebungen.

Die ethischen Debatten traten stets erst auf, nachdem die militärischen Potenziale demonstriert und die strategischen Konsequenzen deutlich wurden. Gesellschaften, die neue Fähigkeiten ablehnten, stellten oft fest, dass andere Mächte voranschritten und die Konfliktbedingungen veränderten. Historisch führten Verzichtsphasen häufig zu politischer oder militärischer Benachteiligung.

Das Intervall zwischen den Weltkriegen illustriert dieses Muster besonders: Die USA verfolgten eine isolationspolitische Außenpolitik, Großbritannien und Frankreich reduzierten die Rüstungsausgaben und setzten auf Verträge zur Begrenzung von Marine- und Luftstreitkräften. Die öffentliche Meinung hoffte, so eine weitere Krise wie 1914 zu verhindern. Gleichzeitig erweiterten autoritäre Regime in Deutschland, Italien und Japan ihre Rüstungen und integrierten neue Technologien. Dieses Ungleichgewicht führte 1939 dazu, dass Demokratien mit rechtlichen und ethischen Argumenten für den Frieden konfrontiert waren, während ihre Gegner gut auf einen industriellen Krieg vorbereitet waren. Verzicht sanktionierte keine Stabilität, sondern senkte die Kosten von Aggressionen und erhöhte den späteren Widerstandspreis. Diese Lektion prägt bis heute das strategische Denken.

Demokratien stehen heute vor einer ähnlichen Herausforderung im Kontext künstlicher Intelligenz. Die Entwicklung KI-gestützter Militärsysteme hat sich in den letzten zwei Jahrzehnten beschleunigt. Seit Einführung der Kampfdrohne Wing Loong-1 im Jahr 2009 verfolgt China den Ausbau autonomer und halbautonomer Luft- und Seeplattformen und plant den Einsatz von KI in Befehlsführung, ISR (Intelligence, Surveillance and Reconnaissance), Zielverfolgung, elektronischer Kriegsführung und Logistik.

2024 fand der Gipfel für verantwortungsvolle KI im militärischen Bereich in Seoul statt, an dem 90 Regierungen teilnahmen. Etwa 60 Staaten unterstützten einen Rahmen für den verantwortungsvollen Einsatz von KI im Krieg, 30 Staaten, darunter China, lehnten ihn ab. Dieses Muster ähnelt früheren Rüstungsregulierungen, bei denen demokratische Länder rechtliche Beschränkungen verfolgten, autoritäre Staaten jedoch Bereiche freihielten. Staaten, die auf KI verzichten, könnten Gegnern gegenüberstehen, die dies nicht tun, da es keinen Mechanismus zur Gewährleistung der Gegenseitigkeit bei der Einhaltung humanitärer Normen gibt.

Ethik und strategische Rahmenbedingungen

Die ethischen Fragen stehen im größeren strategischen Kontext, in dem Verzicht Kosten und Risiken birgt. Die Tradition des gerechten Krieges bietet einen strukturierten Ansatz, um moralische Pflichten mit bewaffneten Konflikten zu versöhnen. Diese Tradition beeinflusste im 20. Jahrhundert die Gesetze der bewaffneten Konflikte und das humanitäre Recht.

Drei Prinzipien leiten die Analyse: Jus ad Bellum betrifft die Gerechtigkeit des Krieges, Jus in Bello die Gerechtigkeit des Verhaltens im Krieg und Jus post Bellum die Gerechtigkeit nach Beendigung von Feindseligkeiten.

Im Rahmen von Jus ad Bellum können KI-gestützte Sensorfusion und Mustererkennung Kommandanten helfen, Verhältnismäßigkeit und Notwendigkeit vor dem Gewaltanwendung zu bewerten. Dies kann zu weniger zerstörerischen Optionen führen und Eskalation vermeiden sowie Konflikte begrenzen.

Nach Jus in Bello kann maschinelles Lernen die Entscheidungsunterstützung verbessern und menschliche Entscheidungen im Sinne des humanitären Völkerrechts erleichtern, etwa bei der Unterscheidung von Zivilisten und Kämpfern oder dem Schutz von zivilen Objekten.

Jus post Bellum wird durch KI bei Dokumentation, Beweissammlung, Schadensbewertung und Wiederaufbaupriorisierung unterstützt, was Rechenschaftspflicht und Versöhnung fördert.

Öffentliche Diskussion und menschliche Rolle

Die öffentliche Debatte reflektiert die moralischen Auswirkungen der Delegierung menschlicher Funktionen an Maschinen. Die Anwendung des Rahmens des gerechten Krieges wird diskutiert, um Risiken wie unbeabsichtigte Eskalation oder Fehler durch Automatisierung zu minimieren.

Kritiker bemängeln, dass Maschinen menschliches Urteilsvermögen und Intuition nicht ersetzen können. Militärdoktrin unterscheidet drei Modelle:

  • Das Modell „Mensch im Loop“, bei dem Menschen tödliche oder zielgerichtete Aktionen genehmigen oder ablehnen. Dieses Modell fordert die höchste ethische Vorsicht und rechtliche Absicherung.
  • Das Modell „Mensch am Loop“, bei dem autonome Systeme Aufgaben ausführen, Menschen jedoch überwachen und eingreifen können. Es eignet sich für Überwachung, Cyberverteidigung und weitere schnelle maschinelle Prozesse.
  • Das Modell „Mensch außerhalb des Loop“, das routinemäßige Logistik- und Datenaufgaben an KI delegiert, um Ermüdung zu reduzieren und Personal für kreative, diplomatische und moralische Aufgaben freizusetzen. Der Einsatz vollständig autonomer Kampfaktionen bleibt umstritten.

Die historische Lehre zeigt ein Muster: Demokratische Gesellschaften sollten sich nicht allein auf moralische Zurückhaltung verlassen, während andere technologische Innovationen nutzen. Die verantwortungsvolle Reaktion besteht darin, KI-Entwicklung an internationalen Gesetzen auszurichten, menschliche Verantwortung zu wahren und humanitäre Standards zu schützen. Andernfalls droht eine Welt, in der Gesellschaften mit Achtung vor Menschenrechten und Recht zurückfallen gegenüber solchen, die dies nicht tun.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...