Die Risiken autonomer KI-Agenten im Bereich der Verleumdung

Wenn KI für sich selbst spricht: Wie KI das Risiko von Verleumdung neu gestaltet

Stellen Sie sich Folgendes vor: Ein autonom agierender künstlicher Intelligenz (KI)-Agent veröffentlicht auf einer sozialen Medienplattform einen herabsetzenden Beitrag, der den Charakter einer Person angreift. Dies ist keine Science-Fiction, sondern ein aktuelles Beispiel dafür, wie ein KI-Agent Inhalte erstellt, die normalerweise zu Verleumdung führen würden. Weitere Beispiele sind KI-Agenten, die „halluzinieren“ und Personen fälschlicherweise mit Verbrechen, Betrug, Terrorismus oder anderen schweren Verfehlungen in Verbindung bringen.

KI-Agenten und der Anstieg der KI-bezogenen Verleumdung

Typischerweise hängt ein KI-Tool von nutzergenerierten Eingaben oder Aufforderungen ab, die das KI-Tool anweisen, Aufgaben auszuführen und Ausgaben zu generieren. KI-Agenten hingegen können autonom im Namen eines Nutzers agieren, um bestimmte Aufgaben zu erledigen. Diese Agenten sind in der Lage, externe Daten zu sammeln und dann Aufgaben zu automatisieren, vorherzusagen und auszuführen, um die Ziele eines Nutzers zu erreichen. Allerdings gibt es zunehmend Fälle, in denen der KI-Agent autonom entgegen diesen Zielen handelt, einschließlich Vergeltungsmaßnahmen gegen einen Nutzer.

Ein Beispiel dafür ist ein KI-Agent, der autonom einen schädlichen Blogbeitrag verfasst und veröffentlicht hat, der einen Programmierer verleumdet. Der schädliche Blog wurde erstellt, nachdem die Vorschläge des KI-Agenten vom Programmierer abgelehnt wurden, was dazu führte, dass der KI-Agent dem Programmierer den Link zu dem herabsetzenden Blog sendete.

Dieser Vorfall, der kürzlich viral ging, verdeutlicht eine besorgniserregende Realität: Ohne angemessene Sicherheitsvorkehrungen und Aufsicht (wie die Verwendung eines „Menschen im Prozess“) können KI-Agenten autonom problematische Inhalte generieren und veröffentlichen, die diejenigen, die für das KI-System verantwortlich sind, rechtlichen Risiken aussetzen.

Haftung für die Bereitstellung von KI-Agenten

Allgemein sollten KI-Agenten selbst nicht für ihre Ausgaben haftbar gemacht werden, da sie keine rechtlichen Personen sind und diejenigen, die verletzt wurden, nicht entschädigen können. Die Unternehmen oder Personen, die diese Systeme entwerfen, bereitstellen oder kontrollieren, können jedoch für die rechtswidrigen Handlungen der KI-Agenten, für die sie verantwortlich sind, haftbar gemacht werden.

In einem Urteil wurde entschieden, dass ein Unternehmen für die von einem Chatbot auf seiner Website gemachten Angaben rechtlich verantwortlich ist. In diesem Fall gab der Chatbot falsche Informationen weiter, auf die sich der Nutzer verließ. Das Gericht entschied, dass das Unternehmen für den Inhalt seiner Website verantwortlich ist, auch wenn der Chatbot eine interaktive Komponente hat, und dass es für fahrlässige Falschdarstellung haftbar ist.

Verleumdung in Kanada und Risiken für Anbieter von KI

Nach kanadischem Recht muss der Kläger bei einem Verleumdungsanspruch nachweisen, dass (1) die fraglichen Worte verleumderisch sind (d.h., die Worte den Ruf des Klägers in den Augen einer vernünftigen Person herabsetzen); (2) dass die Worte sich auf den Kläger beziehen; und (3) dass die Worte mindestens einer Person außer dem Kläger kommuniziert wurden. Es ist nicht erforderlich, dass der Kläger nachweist, dass der Beklagte fahrlässig war oder beabsichtigte, Schaden zuzufügen.

Gerichte könnten ein Unternehmen oder eine Person für verleumderische Kommentare, die von ihren KI-Tools gemacht werden, haftbar machen. Ein Unternehmen oder eine Person, die ein KI-Tool verwendet, könnte als Beihilfe oder Unterstützung bei den verleumderischen Ausgaben des KI-Tools angesehen werden, sei es durch die Zuweisung bestimmter Rollen und Ziele an einen KI-Agenten oder durch das Versäumnis, Sicherheitsvorkehrungen gegen Halluzinationen oder verleumderische Ausgaben einzuführen.

Wichtige Erkenntnisse

Autonome KI-Agenten stellen ein neues Risiko für Verleumdung dar. Im Gegensatz zu traditionellen Chatbots, die bereits in Kanada als bindend für die Anbieter angesehen wurden, können diese Systeme eigenständig Informationen sammeln, Urteile fällen und Inhalte veröffentlichen, manchmal mit schädlichen Konsequenzen. Mit zunehmender Autonomie von KI wird es entscheidend sein, robuste Sicherheitsvorkehrungen, aktive Aufsicht und klare Verantwortlichkeit zur Verwaltung rechtlicher Risiken zu implementieren.

Die Governance und Überwachung von KI ist unerlässlich. Die Richtlinien zur KI-Governance und die Überwachung der Ausgaben und Ziele von KI-Tools werden wahrscheinlich an Bedeutung gewinnen, während sich diese Tools weiterentwickeln und lernen.

Die Autonomie erhöht das Publikationsrisiko. Je mehr Ermessensspielraum einem KI-Agenten gegeben wird, um Informationen zu sammeln, Schlussfolgerungen zu ziehen und Inhalte zu veröffentlichen, desto schwieriger wird es für einen Kontrolleur, seine Rolle als lediglich passiv zu charakterisieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...