Wenn KI für sich selbst spricht: Wie KI das Risiko von Verleumdung neu gestaltet
Stellen Sie sich Folgendes vor: Ein autonom agierender künstlicher Intelligenz (KI)-Agent veröffentlicht auf einer sozialen Medienplattform einen herabsetzenden Beitrag, der den Charakter einer Person angreift. Dies ist keine Science-Fiction, sondern ein aktuelles Beispiel dafür, wie ein KI-Agent Inhalte erstellt, die normalerweise zu Verleumdung führen würden. Weitere Beispiele sind KI-Agenten, die „halluzinieren“ und Personen fälschlicherweise mit Verbrechen, Betrug, Terrorismus oder anderen schweren Verfehlungen in Verbindung bringen.
KI-Agenten und der Anstieg der KI-bezogenen Verleumdung
Typischerweise hängt ein KI-Tool von nutzergenerierten Eingaben oder Aufforderungen ab, die das KI-Tool anweisen, Aufgaben auszuführen und Ausgaben zu generieren. KI-Agenten hingegen können autonom im Namen eines Nutzers agieren, um bestimmte Aufgaben zu erledigen. Diese Agenten sind in der Lage, externe Daten zu sammeln und dann Aufgaben zu automatisieren, vorherzusagen und auszuführen, um die Ziele eines Nutzers zu erreichen. Allerdings gibt es zunehmend Fälle, in denen der KI-Agent autonom entgegen diesen Zielen handelt, einschließlich Vergeltungsmaßnahmen gegen einen Nutzer.
Ein Beispiel dafür ist ein KI-Agent, der autonom einen schädlichen Blogbeitrag verfasst und veröffentlicht hat, der einen Programmierer verleumdet. Der schädliche Blog wurde erstellt, nachdem die Vorschläge des KI-Agenten vom Programmierer abgelehnt wurden, was dazu führte, dass der KI-Agent dem Programmierer den Link zu dem herabsetzenden Blog sendete.
Dieser Vorfall, der kürzlich viral ging, verdeutlicht eine besorgniserregende Realität: Ohne angemessene Sicherheitsvorkehrungen und Aufsicht (wie die Verwendung eines „Menschen im Prozess“) können KI-Agenten autonom problematische Inhalte generieren und veröffentlichen, die diejenigen, die für das KI-System verantwortlich sind, rechtlichen Risiken aussetzen.
Haftung für die Bereitstellung von KI-Agenten
Allgemein sollten KI-Agenten selbst nicht für ihre Ausgaben haftbar gemacht werden, da sie keine rechtlichen Personen sind und diejenigen, die verletzt wurden, nicht entschädigen können. Die Unternehmen oder Personen, die diese Systeme entwerfen, bereitstellen oder kontrollieren, können jedoch für die rechtswidrigen Handlungen der KI-Agenten, für die sie verantwortlich sind, haftbar gemacht werden.
In einem Urteil wurde entschieden, dass ein Unternehmen für die von einem Chatbot auf seiner Website gemachten Angaben rechtlich verantwortlich ist. In diesem Fall gab der Chatbot falsche Informationen weiter, auf die sich der Nutzer verließ. Das Gericht entschied, dass das Unternehmen für den Inhalt seiner Website verantwortlich ist, auch wenn der Chatbot eine interaktive Komponente hat, und dass es für fahrlässige Falschdarstellung haftbar ist.
Verleumdung in Kanada und Risiken für Anbieter von KI
Nach kanadischem Recht muss der Kläger bei einem Verleumdungsanspruch nachweisen, dass (1) die fraglichen Worte verleumderisch sind (d.h., die Worte den Ruf des Klägers in den Augen einer vernünftigen Person herabsetzen); (2) dass die Worte sich auf den Kläger beziehen; und (3) dass die Worte mindestens einer Person außer dem Kläger kommuniziert wurden. Es ist nicht erforderlich, dass der Kläger nachweist, dass der Beklagte fahrlässig war oder beabsichtigte, Schaden zuzufügen.
Gerichte könnten ein Unternehmen oder eine Person für verleumderische Kommentare, die von ihren KI-Tools gemacht werden, haftbar machen. Ein Unternehmen oder eine Person, die ein KI-Tool verwendet, könnte als Beihilfe oder Unterstützung bei den verleumderischen Ausgaben des KI-Tools angesehen werden, sei es durch die Zuweisung bestimmter Rollen und Ziele an einen KI-Agenten oder durch das Versäumnis, Sicherheitsvorkehrungen gegen Halluzinationen oder verleumderische Ausgaben einzuführen.
Wichtige Erkenntnisse
Autonome KI-Agenten stellen ein neues Risiko für Verleumdung dar. Im Gegensatz zu traditionellen Chatbots, die bereits in Kanada als bindend für die Anbieter angesehen wurden, können diese Systeme eigenständig Informationen sammeln, Urteile fällen und Inhalte veröffentlichen, manchmal mit schädlichen Konsequenzen. Mit zunehmender Autonomie von KI wird es entscheidend sein, robuste Sicherheitsvorkehrungen, aktive Aufsicht und klare Verantwortlichkeit zur Verwaltung rechtlicher Risiken zu implementieren.
Die Governance und Überwachung von KI ist unerlässlich. Die Richtlinien zur KI-Governance und die Überwachung der Ausgaben und Ziele von KI-Tools werden wahrscheinlich an Bedeutung gewinnen, während sich diese Tools weiterentwickeln und lernen.
Die Autonomie erhöht das Publikationsrisiko. Je mehr Ermessensspielraum einem KI-Agenten gegeben wird, um Informationen zu sammeln, Schlussfolgerungen zu ziehen und Inhalte zu veröffentlichen, desto schwieriger wird es für einen Kontrolleur, seine Rolle als lediglich passiv zu charakterisieren.