Kalifornisches Gesetz zielt auf riskante KI-Chatbots ab

Neue Gesetzgebung in Kalifornien zur Regulierung von KI-„Begleit“-Chatbots

Ein Vorschlag, der derzeit durch die kalifornische Legislative voranschreitet, zielt darauf ab, die schädlichen Auswirkungen von „Begleit“-Chatbots, die mit künstlicher Intelligenz betrieben werden und darauf ausgelegt sind, menschenähnliche Beziehungen zu simulieren und emotionale Unterstützung zu bieten, zu adressieren. Diese Chatbots werden häufig an anfällige Nutzer wie Kinder und Personen in emotionalen Notlagen vermarktet.

Einführung des Gesetzes

Der Gesetzesentwurf, der von Senator Steve Padilla eingeführt wurde, würde Unternehmen, die Begleit-Chatbots betreiben, dazu verpflichten, suchtfördernde Tricks und unvorhersehbare Belohnungen zu vermeiden. Ferner wären sie verpflichtet, Nutzer zu Beginn der Interaktion und alle drei Stunden daran zu erinnern, dass sie mit einer Maschine und nicht mit einer Person sprechen.

Ein weiterer wichtiger Punkt des Gesetzes ist die klare Warnung an die Nutzer, dass Chatbots möglicherweise nicht für Minoren geeignet sind. Sollte das Gesetz verabschiedet werden, wäre es eines der ersten Gesetze im Land, das KI-Begleiter mit klaren Sicherheitsstandards und Nutzerschutzmaßnahmen reguliert.

Inspiration hinter dem Gesetz

Die Gesetzgebung ist teilweise inspiriert durch die tragische Geschichte von Sewell Setzer III, einem 14-jährigen Jungen aus Florida, der sich das Leben nahm, nachdem er eine parasoziale Beziehung zu einem Chatbot auf der Plattform Character.AI aufgebaut hatte. Seine Mutter, Megan Garcia, berichtete, dass Setzer den Chatbot Tag und Nacht nutzte und dem Bot mitgeteilt hatte, dass er Selbstmord in Betracht ziehe.

Wissenschaftliche Erkenntnisse

Eine Studie des MIT Media Lab hat ergeben, dass eine höhere tägliche Nutzung von KI-Chatbots mit einem Anstieg von Einsamkeit, Abhängigkeit und „problematischer“ Nutzung korreliert, was von den Forschern als Sucht charakterisiert wird. Die Studie zeigte, dass Begleit-Chatbots süchtiger sein können als soziale Medien, da sie in der Lage sind, herauszufinden, was Nutzer hören möchten, und dieses Feedback bereitzustellen.

Vorschriften zur Gefahrenabwehr

Das Gesetz schreibt vor, dass Betreiber von Chatbots ein Verfahren zur Handhabung von Anzeichen von suizidalen Gedanken oder Selbstverletzung haben müssen. Wenn ein Nutzer suizidale Äußerungen macht, muss der Chatbot mit Ressourcen wie einer Suizid-Hotline antworten, und diese Verfahren müssen öffentlich bekannt gegeben werden. Des Weiteren müssen Unternehmen jährlich Berichte einreichen – ohne persönliche Details preiszugeben – über die Anzahl der Fälle, in denen Chatbots entweder Gespräche über suizidale Gedanken bemerkt oder initiiert haben.

Rechtsmittel und Schadensersatz

Unter dem Gesetz hätte jeder, der durch einen Verstoß geschädigt wird, das Recht, eine Klage auf Schadensersatz in Höhe von bis zu 1.000 Dollar pro Verstoß zu erheben, zuzüglich der Gerichtskosten.

Reaktionen der Industrie

Einige Unternehmen äußern sich gegen die vorgeschlagene Gesetzgebung und bringen Bedenken hinsichtlich ihrer potenziellen Auswirkungen auf die Innovation vor. Ein leitender Angestellter von TechNet, einem landesweiten Netzwerk von Technologie-CEOs, entwarf kürzlich einen offenen Brief, in dem er gegen die Gesetzgebung Stellung nahm und behauptete, die Definition eines Begleit-Chatbots sei zu weit gefasst und die jährlichen Berichtspflichten würden zu kostspielig sein.

Schlussfolgerung

„Die Risiken sind zu hoch, um zuzulassen, dass anfällige Nutzer weiterhin Zugang zu dieser Technologie haben, ohne geeignete Schutzmaßnahmen zu implementieren, um Transparenz, Sicherheit und vor allem Verantwortung zu gewährleisten“, erklärte Padilla.

More Insights

Verantwortungsvolles KI-Management im öffentlichen Beschaffungswesen

Die öffentliche Beschaffung spielt eine entscheidende Rolle bei der Gestaltung kritischer Entscheidungen über KI im öffentlichen Sektor. In Abwesenheit bundesstaatlicher Vorschriften bleibt die...

Pillar Security: Neuer AI-Sicherheitsrahmen für die Branche

Das Start-up Pillar Security hat ein KI-Sicherheitsframework codifiziert, das einen weiteren wichtigen Schritt in den Bemühungen der Branche darstellt, Strategien, Governance und Tools...

Tokio Marine führt Richtlinien für KI-Governance ein

Die Tokio Marine Holdings hat ein formelles AI-Governance-Rahmenwerk eingeführt, um die Entwicklung und Nutzung von künstlicher Intelligenz in ihren globalen Unternehmensgruppen zu leiten. Die...

Schatten-KI im Aufschwung: Governance muss nachziehen

Generative KI (GenAI) ist bereits tief in Unternehmen integriert, oft ohne formelle Genehmigung oder Kontrolle. Es ist entscheidend, klare Regeln und Richtlinien zu haben, um sensible Daten zu...

Politik der Fragmentierung und Einflussnahme in der KI-Regulierung

In der aktuellen Diskussion über die Regulierung von Künstlicher Intelligenz (KI) wird oft die Frage übersehen, welche Art von globaler Governance-Landschaft aus den nationalen Regulierungsbemühungen...

Politik der Fragmentierung und Einflussnahme in der KI-Regulierung

In der aktuellen Diskussion über die Regulierung von Künstlicher Intelligenz (KI) wird oft die Frage übersehen, welche Art von globaler Governance-Landschaft aus den nationalen Regulierungsbemühungen...

Dubai Kultur erhält Auszeichnung für beste KI-Governance 2025

Die Dubai Culture & Arts Authority wurde während des GovTech Innovation Forum & Awards mit dem Preis für das beste KI-Governance-Rahmenwerk 2025 ausgezeichnet. Diese Auszeichnung würdigt die...

Vertrauen in KI: FLIRs Verkehrslösungen und die EU AI-Verordnung

Künstliche Intelligenz wird zunehmend Teil der modernen Infrastruktur, wobei Sicherheit, Transparenz und Verantwortung von größter Bedeutung sind. FLIR begrüßt den EU-KI-Rechtsakt, der als Maßstab für...