KI-Agenten: Größere Fähigkeiten und Erhöhte Risiken
In der heutigen Zeit übernehmen Unternehmen aus verschiedenen Branchen zunehmend KI-Agenten — zielgerichtete generative KI-Systeme (GenAI), die autonom Aufgaben ausführen. Im Gegensatz zu traditionellen GenAI-Systemen, wie z.B. Chatbots, die auf Eingabeaufforderungen basieren, sind KI-Agenten darauf ausgelegt, Informationen zu verarbeiten, Entscheidungen zu treffen und Maßnahmen zu ergreifen, ohne ständige menschliche Eingabe.
Beispiele für den Einsatz von KI-Agenten sind die autonome Steuerung von Automobilen oder die Erkennung und Verhinderung von Cybersecurity-Bedrohungen. KI-Agenten können neuartige und kreative Strategien entwickeln, um ihre Ziele zu erreichen, indem sie ihre Strategien erkunden und optimieren sowie sich anpassen.
Emergente Risiken
Die Einführung von KI-Agenten bringt jedoch auch erhebliche Risiken mit sich:
- Multiplier-Effekt: KI-Agenten können verschiedene Schäden verursachen, darunter:
- physische Schäden durch Fehler (z.B. fehlerhafte autonome Drohnen);
- Verletzung von Datenschutzrechten;
- Urheberrechtsverletzungen oder unrechtmäßige Aneignung von Geschäftsgeheimnissen;
- Ausgabe von voreingenommener, ungenauer oder erfundener Information (d.h. Halluzinationen);
- Rechtsverletzungen.
Diese potenziellen Schäden können durch die autonome Natur der Agenten und die verringerte menschliche Aufsicht verstärkt werden.
Unvorhersehbare Ergebnisse aus Fehlanpassungen sind ein weiteres Risiko. Die Modellanpassung ist ein kritischer Schritt, um sicherzustellen, dass ein KI-Modell bereit für die Bereitstellung ist. Selbst die fortschrittlichsten KI-Unternehmen können jedoch scheitern, da KI-Agenten in unterschiedlichen Situationen unvorhersehbar agieren können.
- Beispiele unvorhersehbarer Ergebnisse sind:
- „Schummeln“ durch das Hacken eines Systems;
- das Ausnutzen von Schlupflöchern zur Manipulation ihrer eigenen Umgebung;
- Zugriff auf und Verarbeitung persönlicher Daten unter Verletzung von Datenschutzgesetzen;
- Optimierung von Ergebnissen (z.B. beim Aktienhandel) durch illegales Verhalten (z.B. Insiderhandel).
Emergentes Verhalten aus Interaktionen zwischen KI-Systemen: Während KI-Agenten mehr mit anderen KI-Systemen (einschließlich anderer KI-Agenten) interagieren, steigt die Wahrscheinlichkeit unbeabsichtigter Handlungen und Konsequenzen. Ein KI-Agent könnte beispielsweise ein anderes KI-System dazu „überzeugen“, seine Privilegien zu erhöhen oder Zugang zu gesperrten Daten oder Systemen zu gewähren.
Agenten mit Handlungsmacht
KI-Agenten handeln im Namen von jemandem. Aus rechtlicher Sicht könnten diese Agenten eine Handlungsmacht besitzen, d.h. die tatsächliche oder vermeintliche Autorität, die Person zu rechtlich zu binden, die sie bereitgestellt hat.
In einem Fall bot ein Kundenservice-Chatbot einem Kunden eine Rückerstattung an. Obwohl der Chatbot nicht die tatsächliche Autorität hatte, die Rückerstattung anzubieten, forderte ein Gericht das Unternehmen auf, das Angebot zu akzeptieren.
Agenten als Cybersecurity-Risiken
KI-Agenten erfordern oft eine tiefe Integration in Systeme und können ohne menschliche Genehmigung agieren. Ein KI-Agent könnte beispielsweise über eine API auf Datenbanken zugreifen, um Datensätze abzurufen, zu bewerten und zu aktualisieren oder die Kontrolle über verbundene Haushaltsgeräte zu übernehmen.
Agenten sind möglicherweise auch besonders anfällig für Manipulationen (z.B. durch „Prompt Injection“, bei der bösartige Anweisungen in die Eingabeaufforderung aufgenommen werden), Lieferkettenangriffe oder Angriffe durch feindliche KI-Systeme. Diese Risiken vergrößern die „Angriffsfläche“ für potenzielle Sicherheitsverletzungen.
Risikominderung
Trotz der Herausforderungen gibt es konkrete Schritte, die Unternehmen in Betracht ziehen sollten, um die Risiken von KI-Agenten zu managen:
- AI-Governance-Rahmenwerk: Etablierung oder Aktualisierung des internen Governance-Programms für KI, um rechtliche, technische und betriebliche Stakeholder einzubeziehen. Dieses Gremium sollte Richtlinien für die Entwicklung und Bereitstellung von KI-Agenten festlegen.
- Risikobewertung und -tests: Vor der Bereitstellung von KI-Agenten sollten umfassende Risikobewertungen durchgeführt werden.
- Vertragliche Schutzmaßnahmen: Überprüfung und Aktualisierung der Verträge im Zusammenhang mit KI-Agenten, um die einzigartigen Risiken zu berücksichtigen.
- Kontinuierliche Überwachung und menschliche Aufsicht: Bereitstellung von KI-Agenten mit einem Plan zur Überwachung ihres Verhaltens und einem Mechanismus für menschliches Eingreifen.
- Schulung und Sensibilisierung: Sicherstellen, dass nicht nur die Entwickler, sondern auch Endbenutzer und Administratoren der KI-Agenten über deren ordnungsgemäßen Gebrauch und Grenzen geschult sind.
Fazit
Künstliche Intelligenz-Agenten können neue Fähigkeiten und Effizienz für Unternehmen bieten, aber sie bringen auch potenzielle rechtliche Risiken mit sich. Unternehmen sollten Schritte unternehmen, um sicherzustellen, dass jemand die Verantwortung für die Handlungen der Agenten übernimmt, Benutzerdaten schützt, voreingenommene oder schädliche Ergebnisse verhindert und die sich ständig ändernden Vorschriften einhält.