Senat der Demokraten bewegt sich zur Kodifizierung der AI-Roten Linien von Anthropic
Die Auseinandersetzung zwischen dem Pentagon und Anthropic ist nun ein Problem des Kongresses geworden. Ein Senator entwirft Gesetze, um menschliche Aufsicht für Entscheidungen mit AI, die über Leben und Tod entscheiden, zu verankern. Ein anderer Senator hat ein Begleitgesetz eingeführt, das die AI-Überwachung durch das Verteidigungsministerium einschränkt.
Diese koordinierte Initiative kommt Wochen nachdem die Trump-Administration Anthropic auf die schwarze Liste gesetzt hat, weil das Unternehmen sich geweigert hat, Sicherheitsvorkehrungen aus seinen AI-Modellen zu entfernen. Dies hat eine verfassungsrechtliche Klage ausgelöst und droht nun, die Art und Weise zu verändern, wie das Militär künstliche Intelligenz einsetzt.
Gesetzgebung und ethische Richtlinien
Die ethischen Prinzipien von Anthropic erhalten nun legislative Unterstützung. Ein Senator arbeitet an einem Gesetz, das die ethischen roten Linien des Unternehmens direkt in das Bundesrecht schreiben würde, um sicherzustellen, dass menschliche Bediener die letztendliche Autorität über AI-Systeme behalten, die lebenswichtige Entscheidungen treffen. Ein anderer Senator hat ein separates Gesetz eingereicht, das die Verwendung von AI zur Überwachung von Amerikanern durch das Verteidigungsministerium einschränkt.
Diese beiden Gesetze verwandeln einen anfänglichen Vertragsstreit in einen entscheidenden Kampf um die Governance von AI. Das Pentagon hatte Anthropic als Risiko für die Lieferkette eingestuft, nachdem das Unternehmen sich geweigert hatte, Sicherheitsbeschränkungen für militärische Anwendungen zu entfernen. Die Schwarze Liste schließt effektiv Bundesbehörden davon aus, die AI-Dienste von Anthropic zu erwerben.
Rechtsstreit und gesellschaftliche Verantwortung
Anthropic hat mit einer Klage reagiert, in der dem Staat vorgeworfen wird, die First Amendment-Rechte und die Due-Process-Schutzmaßnahmen des Unternehmens zu verletzen. Das Unternehmen argumentiert, dass seine Nutzungsrichtlinien, die autonome Waffensysteme und Anwendungen zur Massenüberwachung verbieten, grundlegende Werte darstellen, für deren Aufrechterhaltung es nicht bestraft werden sollte.
Die bevorstehende Gesetzgebung würde diese Richtlinien effektiv zum Gesetz machen. Ein Senator hat betont, dass er darauf abzielt, „bedeutende menschliche Kontrolle“ über AI-Systeme, die in Kampfszenarien eingesetzt werden, zu verlangen. Dies würde verhindern, dass das Pentagon vollständig autonome Waffen einsetzt, die Ziele ohne menschliche Genehmigung auswählen und angreifen.
Implikationen für die AI-Industrie
Die gesetzgeberische Strategie bringt die Republikaner in eine schwierige Lage. Die Schwarze Liste des Pentagon stammt von einer Trump-Administration, die eine beschleunigte Einführung militärischer AI ohne ethische Richtlinien aus Silicon Valley anstrebt. Dennoch haben mehrere republikanische Senatoren ihre Bedenken gegenüber vollständig autonomen Waffen geäußert, was ein ungewöhnliches bipartisanes Einvernehmen schaffen könnte.
Es geht nicht mehr nur um Anthropic. Auch andere Unternehmen wie OpenAI, Google und Microsoft haben unterschiedliche Grade von Einschränkungen bei der Verwendung von AI im Militär. Sollte die Schwarze Liste des Pentagon als Präzedenzfall bestehen bleiben, könnten Unternehmen mit Nutzungsrichtlinien ähnlichen Vergeltungsmaßnahmen ausgesetzt sein. Diese Bedrohung konzentriert die Gedanken in der AI-Industrie.
Fazit
Die Dringlichkeit, AI in alles von Logistik bis hin zu Entscheidungen auf dem Schlachtfeld zu integrieren, steht im Widerspruch zu berechtigten Fragen zur Verantwortung, wenn Algorithmen darüber entscheiden, wer lebt und wer stirbt. Die Position von Anthropic spiegelt eine breitere Spannung in der Entwicklung von AI wider. Das Unternehmen wurde von ehemaligen Forschern gegründet, die wegen Sicherheitsdisagreements das Unternehmen verließen und hat sich um „verfassungsmäßliche AI“ bemüht, die darauf trainiert ist, schädliche Anfragen abzulehnen.
Die Weigerung von Anthropic, bei der Sicherheit von AI Kompromisse einzugehen, hat sich von einer Unternehmenspolitik zu potenziellen Bundesgesetzen entwickelt. Unabhängig davon, ob die Gesetze verabschiedet werden oder nicht, haben sie die Debatte neu formuliert: Anstatt zu fragen, ob AI-Unternehmen militärische Anwendungen einschränken sollten, debattiert der Kongress jetzt darüber, ob diese Einschränkungen obligatorisch sein sollten. Dies könnte die Art und Weise, wie AI in der Kriegsführung eingesetzt wird, für Jahrzehnte bestimmen.