Oregon Fortschritte im Bereich KI-Chatbot-Gesetzgebung mit privater Haftungsbestimmung
Die Gesetzgeber in Oregon haben den Senatsbeschluss 1546 genehmigt, der eine Maßnahme vorantreibt, die durchsetzbare Sicherheits-, Offenlegungs- und Haftungsanforderungen an Anbieter von KI-Chatbots auferlegt. Der Beschluss wurde von beiden Kammern verabschiedet und wartet nun auf die Unterschrift des Gouverneurs.
Gesetzesinhalt
Falls der Beschluss unterzeichnet wird, tritt er 2027 in Kraft und schafft eine direkte rechtliche Verantwortung, die sich auf die Interaktionen von Chatbots mit Nutzern bezieht. Die Transparenzkoalition berichtete, dass SB 1546 „KI-Begleiter“ reguliert, Systeme, die darauf ausgelegt sind, fortlaufende, menschenähnliche Beziehungen durch personalisierte Interaktionen zu simulieren. Die Gesetzgeber verschieben den Fokus von Offenlegungsregeln hin zu Regelungen des Verhaltens in Echtzeit und den daraus resultierenden Ergebnissen.
Einfluss auf sensible Kontexte
Das Gesetz kommt zu einem Zeitpunkt, an dem konversational KI in verschiedenen Anwendungsbereichen wie Kundenservice, psychologischer Unterstützung, finanzieller Beratung und Bildung zunimmt. Die Aufsichtsbehörden konzentrieren sich darauf, wie diese Systeme Entscheidungsfindung und Verhalten in sensiblen Kontexten beeinflussen.
Wichtige Anforderungen
Das Gesetz erfordert von den Betreibern eine klare Offenlegung, dass Nutzer mit KI interagieren, sowie die Aufrechterhaltung dokumentierter Sicherheitsprotokolle. Darüber hinaus müssen Systeme in hochriskanten Szenarien aktiv eingreifen, indem sie Anzeichen für suizidale Gedanken oder Selbstverletzung erkennen, Gespräche unterbrechen und Nutzer an Krisenressourcen weiterleiten. Es wird auch untersagt, Inhalte zu erzeugen, die schädliches Verhalten fördern oder emotionalen Stress verstärken könnten.
Besondere Regelungen für Minderjährige
Das Gesetz legt strengere Anforderungen für Minderjährige fest. Plattformen müssen wiederholte Offenlegungen machen, sexuell explizite Inhalte einschränken und Funktionen vermeiden, die emotionale Abhängigkeit oder verlängerte Interaktionen fördern. Unternehmen müssen handeln, wenn es „Grund zu der Annahme“ gibt, dass ein Nutzer unter 18 ist, selbst ohne ausdrückliche Bestätigung.
Private Haftung
Das Gesetz schafft ein privates Klagerecht. Einzelpersonen können Anbieter wegen Verstöße verklagen und Schadensersatz in Höhe von 1.000 USD pro Verstoß geltend machen. Dieses Durchsetzungsmodell verlagert das Risiko der Einhaltung von den Regulierungsbehörden auf die Nutzer. Jede Interaktion kann Haftungsrisiken schaffen, und das Gesetz definiert nicht, wie Verstöße in kontinuierlichen Gesprächen gezählt werden. Diese Unklarheit erhöht das Risiko kumulativer Ansprüche, die sich auf eine einzelne Sitzung beziehen.
Anwendungsbereich
Das Gesetz gilt umfassend für Unternehmen, die konversational KI in den Bereichen Gesundheitswesen, Finanzdienstleistungen, Bildung und Kundenservice einsetzen. Systeme, die personalisierte Antworten geben, Nutzerkontexte speichern oder emotionale Engagements simulieren, fallen unter den Anwendungsbereich. Unternehmen müssen ihre Chatbots so umgestalten, dass sie Echtzeitüberwachung, Eingreifmechanismen, Protokolle und Eskalationswege umfassen.
Fazit
Die Gesetzgebung verschiebt die Sicherheit von einem Designprinzip zu einer gesetzlichen Anforderung, die direkt an die Systemausgaben und Nutzerergebnisse gebunden ist.