AI-Agenten – Wie verändern sie die Spielregeln für die KI-Governance in Australien?
Im vergangenen Jahr ist eine neue Klasse von künstlichen Intelligenz (KI)-Tools, bekannt als autonome Agenten (Agenten), aufgetaucht, die oft als das „agentische Zeitalter“ bezeichnet wird. Während Agenten neue Möglichkeiten in der Automatisierung eröffnet haben, birgt ihre dynamische und autonome Natur auch das Potenzial, bestimmte bestehende Probleme zu verschärfen, die typischerweise mit KI verbunden sind, wie z.B. Voreingenommenheit und Diskriminierung, geistiges Eigentum, Datenschutz, Transparenz und Erklärbarkeit.
Was ist ein ‚Agent‘?
Es gibt noch keine feste Definition dafür, was einen Agenten ausmacht, da der Begriff ‚Agent‘ auf ein breites Spektrum von Technologien angewendet wurde, von Schlussfolgerungsmodellen (wie dem ‚Computer Use‘-Modell von Anthropic) bis hin zu agentischen Co-Piloten (wie ChatGPT’s Operator und Manus) und sogar künstlicher allgemeiner Intelligenz. Während die genaue Definition und Form eines Agenten offen zur Debatte steht, besteht weitgehender Konsens darüber, dass die Hauptmerkmale eines Agenten Autonomie, Adaptierbarkeit und Zielorientierung mit minimalem bis gar keinem menschlichen Eingreifen umfassen. Diese Merkmale stellen einen wesentlichen Wandel von dem ‚Eingabe-Antwort‘-Paradigma der generativen KI dar, das immer noch ein gewisses Maß an iterativem und manuellem Input durch einen menschlichen Benutzer erfordert.
Ein komplexeres ‚Black Box‘-Problem
Aktuelle Transparenzprinzipien rund um KI konzentrieren sich auf Offenlegungen (wie Hinweise, Wasserzeichen und Einwilligungsformulare), um Individuen darüber zu informieren, ob sie mit KI interagieren oder von ihr betroffen sind. Diese Prinzipien sind jedoch durch das ‚Black Box‘-Problem limitiert, bei dem die verborgenen Muster, durch die ein Modell eine Ausgabe aus einer Eingabe ableitet, nicht unbedingt in bedeutungsvollen Begriffen erklärbar sind.
Risikomanagement in Bewegung
Agenten gelten als dynamisch, da sie sich anpassen und emergente Eigenschaften entwickeln können, ohne manuelle Änderungen an ihrem Quellcode oder ihren Konfigurationen. Sie können im Verlauf eines Workflows zwischen Risikostufen schwanken. Zum Beispiel könnte ein Unternehmen einen Kundenservice-Agenten-Bot einsetzen, der nicht nur Anfragen beantwortet (wie ein herkömmlicher Chatbot), sondern auch autonom Aufgaben wie das Surfen im Web, das Anpassen von Kontoeinstellungen und das Übertragen von Geldern übernimmt.
Technische Sicherheitsvorkehrungen sind wichtiger denn je
Mit Agenten, die in der Lage sind, komplexe Ziele autonom auszuführen, verschiebt sich die Risikoeinschätzung, und wie wir damit umgehen können. Eine andere Art der Analyse als die ‚Eingabe-Ausgabe‘-Rahmenbedingungen könnte erforderlich sein, und Risiken müssen möglicherweise noch mehr durch technische Sicherheitsvorkehrungen adressiert werden.
Was können Rechtsteams tun?
Rechtsteams müssen der Entwicklung von Agenten einen Schritt voraus sein, um Risiken und Verantwortlichkeiten zu managen. Die proaktive Zusammenarbeit zwischen rechtlichen, geschäftlichen, risikobehafteten und technologischen Teams zu Beginn der Projektentwicklung ist entscheidend, um effektive Governance-Rahmenbedingungen zu entwickeln, Risiken zu bewerten und die Einhaltung sich entwickelnder rechtlicher Standards sicherzustellen.