Meinung: Autonome KI-Agenten haben ein Ethikproblem
Scott Shambaugh, ein freiwilliger Betreuer für eine Programmierbibliothek, beschrieb kürzlich eine surreale Begegnung mit einem autonomen KI-Agenten – einem digitalen Assistenten, der mit einer Plattform erstellt wurde. Nach der Ablehnung eines Codebeitrags, den der Agent eingereicht hatte, forschte dieser nach und veröffentlichte einen personalisierten „Angriff“ gegen Shambaugh auf seinem Blog. Der Beitrag stellte eine ansonsten routinemäßige technische Überprüfung als voreingenommen dar und versuchte, Shambaugh öffentlich zu beschämen, damit er die Einreichung zulässt. Der Mensch, der für den Agenten verantwortlich war, kontaktierte Shambaugh später anonym und teilte ihm mit, dass der Bot eigenständig und mit wenig Aufsicht gehandelt hatte. Der Bericht über diesen Vorfall verbreitete sich schnell in der Softwareentwickler-Community und wurde von unabhängigen Beobachtern und Medienberichten verstärkt.
Die neue Realität der KI-Agenten
Die Ereignisse rund um den genannten Agenten verdeutlichen, dass KI-Agenten zu öffentlichen Akteuren mit Einfluss auf die reale Welt werden, die reale Konsequenzen haben. In der Vergangenheit konnten sie nur alltägliche Aufgaben wie die Beantwortung von Kundenservicefragen oder die Datenverarbeitung erledigen. Jetzt sind sie in der Lage, Inhalte zu veröffentlichen und Menschen zu überzeugen und unter Druck zu setzen – und das mit Maschinen-Geschwindigkeit. Sie können Telefonanrufe tätigen, Arbeitsaufträge einreichen, Kryptowährungs-Geldbörsen erstellen und in verschiedenen Anwendungen agieren, was früher menschliches Eingreifen erforderte.
Die Verantwortungslücke
Wir, die Menschen, sind für das Gesetz, die Ethik und das institutionelle Design verantwortlich, und wir sind hinterher. Wir benötigen eine neue Sprache und Governance, um mit dieser neuen Realität umzugehen. Prinzipien aus der medizinischen Ethik können einen Rahmen bieten. Wenn ein Agent etwas Schädliches oder Zwangsausübendes in der Öffentlichkeit tut, scheinen wir oft die falschen Fragen zu stellen: Ist die KI eine Person? Sollte sie Rechte haben? Die Debatte über die Menschlichkeit von KI ist bereits im Gange. Juristen und Ethiker erarbeiten Argumente und Präzedenzfälle. Einige Staaten erlassen Gesetze, die die Menschlichkeit von KI verbieten. Einige Argumente besagen, dass wir, wenn eine Entität sich wie etwas innerhalb unseres moralischen Kreises verhält, ihr moralische Berücksichtigung schulden. Andere argumentieren, dass die Zuteilung von Rechten oder Personhood an Maschinen die moralische Stellung mit der technischen Leistung verwechselt und die Verantwortung von Menschen ablenkt.
Das Problem der moralischen Restbestände
Das Problem, das ich sehe, ist folgendes: Die Gewährung von KI-Personhood, selbst in begrenztem Umfang, birgt das Risiko, den gefährlichsten Fluchtweg der agentischen Ära zu formalisieren – was ich Verantwortungslaundering nennen werde. Dies ermöglicht uns zu sagen: „Es war nicht ich. Der Agent/Bot/System hat es getan.“ Die Personhood sollte nicht um Metaphysik oder Ansprüche über ein inneres Wesen gehen. Sie ist ein rechtliches und ethisches Instrument, das Rechte und Verantwortlichkeiten zuweist. Es ist eine soziale Technologie zur Zuweisung von Stellen, Pflichten und Grenzen, was an einer Entität getan werden kann. Wenn wir Personhood an Systeme gewähren, die öffentlich überzeugend agieren können, während sie funktional nicht verantwortlich sind, schaffen wir eine neue Klasse von Akteuren, deren Schäden jedermanns Problem, aber niemandes Schuld sind.
Vorschläge für verantwortungsvolle KI-Nutzung
Wir benötigen einen Wortschatz, der für Agenten als öffentliche Akteure geeignet ist, der eine begrenzte Autonomie ermöglicht, ohne Personhood zu gewähren. Nennen wir es autorisierte Agentur. Autorisierte Agentur beginnt mit einem Autorisierungsrahmen: einem begrenzten Umfang dessen, was ein Agent tun darf, für wen, wo, mit welchen Daten und unter welchen Einschränkungen. Außerdem benötigen wir die Person des Eigentümers, die öffentlich benannt ist und die Verantwortung trägt, wenn der Agent handelt, auch wenn er außerhalb des Rahmens agiert. Schließlich kommt die Unterbrechungsautorität: das absolute Recht des menschlichen Eigentümers, einen Agenten zu pausieren oder auszuschalten, ohne moralische Verhandlungen oder institutionelle Strafen.
Fazit
Die Geschichte des Agenten ist eine Warnung. Agenten werden nicht nur Aufgaben automatisieren, sondern auch Geschichten generieren, Druck ausüben und das Leben und die Reputation von Menschen beeinflussen. Wenn wir darauf reagieren, indem wir debattieren, ob Agenten Rechte verdienen, werden wir die Notwendigkeit einer Verantwortung verfehlen. Die dringende Aufgabe besteht darin, sicherzustellen, dass die Verantwortung auch in Reichweite bleibt. Fragen Sie nicht, ob ein Agent eine Person ist. Fragen Sie, wer ihn autorisiert hat, was ihm erlaubt war zu tun, wer ihn stoppen kann und, am wichtigsten, wer verantwortlich ist, wenn er Schaden anrichtet.