Anthropics Bruch mit dem Pentagon entfacht die Debatte über KI-Ethische Fragen
ANALYSE: Nach der Ablehnung von Pentagon-Forderungen im Zusammenhang mit autonomen Waffen und Überwachung hat die Position von Anthropic die Debatte über KI-Ethische Fragen verschärft — was den jüngsten Warnungen des Vatikans echo gibt.
Angesichts des explosionsartigen Wachstums der künstlichen Intelligenz (KI) in den letzten Jahren haben Katholiken konsequent für die Einbeziehung sozial verantwortlicher Sicherheitsmaßnahmen, Grenzen und ethischer Prinzipien innerhalb dieser Technologie plädiert.
Ein führender KI-Entwickler, der dies zu tun versucht, befindet sich nun in einem bedeutenden Konflikt mit der US-Regierung — was eine hitzige Debatte über die ethischen und moralischen Dimensionen der KI-Entwicklung anheizt.
Anthropic, ein in San Francisco ansässiges Start-up, ist der Schöpfer von Claude, einem auf einem großen Sprachmodell basierenden KI-Assistenten, der bereits in vielen Bereichen der US-Gesellschaft weit verbreitet ist. Anthropic hat sich als die sichere, verantwortungsvolle Option im KI-Ökosystem positioniert; sein CEO spricht häufig in Interviews für die Entwicklung von „Sicherheitsvorkehrungen“, um die Menschheit vor unkontrollierter KI zu schützen.
Die US-Regierung untersucht seit letztem Jahr die Nutzung von KI im nationalen Verteidigungsbereich. Vier große US-KI-Unternehmen haben in unterschiedlichem Maße mit dem Pentagon zusammengearbeitet, wobei lukrative Verträge auf dem Tisch liegen.
Teils aufgrund des relativ vorsichtigen Ansatzes seiner Entwickler war Claude das erste KI-Produkt, das auf die geheimen Netzwerke des Pentagon zugelassen wurde. Als Werkzeug für das US-Militär wurden Claudes analytische Fähigkeiten Berichten zufolge zur Unterstützung zahlreicher hochkarätiger Militäroperationen eingesetzt.
Anthropic war in Verhandlungen mit dem Pentagon über einen Vertrag im Wert von 200 Millionen Dollar, der die Produkte von Anthropic im US-Verteidigungsapparat ausweiten sollte. Die Gespräche scheiterten jedoch Ende Februar in dramatischer Weise.
Der Verteidigungsminister drängte in öffentlichen Erklärungen und direkten Verhandlungen darauf, dass Anthropic es der Regierung erlauben sollte, seine KI-Technologie für „jede rechtmäßige Nutzung“ zu verwenden — einschließlich vollautonomer Waffensysteme und der Massenüberwachung von US-Bürgern.
Als Anthropic sich weigerte, diese Verwendungen seines Produkts „aus Gewissensgründen“ zuzulassen, ergriff die Regierung den beispiellosen Schritt, Anthropic als „Lieferkettenrisiko“ zu kennzeichnen — ein Novum für ein amerikanisches Unternehmen — und wies alle Regierungsbehörden an, die Nutzung von Anthropic innerhalb von sechs Monaten einzustellen.
In Bezug auf den massiven Pentagon-Vertrag hat Anthropics Rivale bereits einen eigenen Deal mit der Regierung abgeschlossen, ohne die gleichen Sicherheitsvorkehrungen, die Anthropic angestrebt hatte. In der Folge gab es eine Welle der Unterstützung für die prinzipielle Haltung von Anthropic in den sozialen Medien, wo viele Nutzer erklärten, dass sie beabsichtigen, ChatGPT zugunsten von Claude zu löschen.
Obwohl Anthropics Haltung als nobel angesehen werden kann, könnte sie sich als fruchtlos erweisen. Sofern nicht durch einen Gerichtsbeschluss, könnte die neu gestartete Vendetta der Regierung gegen Anthropic zu dessen finanzieller Vernichtung führen.
Die ethischen Bedenken
Experten für KI-Ethische Fragen äußerten dennoch Wertschätzung für den Weg, den Anthropic eingeschlagen hat, der in gewisser Hinsicht mit den moralischen Aufforderungen des Vatikans übereinstimmt.
Der Vatikan hat in den letzten Jahren wiederholt und vehement gegen die Idee Stellung genommen, computerisierte Waffensysteme unabhängig zu betreiben und Ziele zur Zerstörung auszuwählen. Solche Systeme werden als tödliche autonome Waffensysteme (LAWS) bezeichnet.
Ein Dokument des Vatikans bezeichnet LAWS als „Ursache für gravierende ethische Bedenken“ aufgrund ihres Mangels an „der einzigartigen menschlichen Fähigkeit zur moralischen Urteilsbildung und ethischen Entscheidungsfindung.“ Der Vatikan hat auch eine klare Perspektive zur Massenüberwachung bereitgestellt.
In Anbetracht dessen, dass KI für Überwachungszwecke eingesetzt wird, wird im Dokument erklärt, dass KI, die darauf abzielt, die Freiheit anderer auszubeuten oder wenigen auf Kosten vieler zu nützen, nicht gerechtfertigt werden kann.
Es bleibt abzuwarten, ob die Warnungen des Vatikans in Bezug auf KI für Überwachung und autonome Waffensysteme auf den höchsten Ebenen der Weltmacht, einschließlich der US-Regierung, Gehör finden werden.
Fazit
Die Entscheidung von Anthropic, keine Kompromisse bei den grundlegenden Prinzipien einzugehen, könnte sich als problematisch herausstellen, doch ihre ethische Haltung ist wichtig, insbesondere in einem Umfeld, in dem viele große Unternehmen bereit sind, ethische Überlegungen zugunsten finanzieller Gewinne beiseite zu schieben.