Kalifornisches Gesetz zielt auf riskante KI-Chatbots ab

Neue Gesetzgebung in Kalifornien zur Regulierung von KI-„Begleit“-Chatbots

Ein Vorschlag, der derzeit durch die kalifornische Legislative voranschreitet, zielt darauf ab, die schädlichen Auswirkungen von „Begleit“-Chatbots, die mit künstlicher Intelligenz betrieben werden und darauf ausgelegt sind, menschenähnliche Beziehungen zu simulieren und emotionale Unterstützung zu bieten, zu adressieren. Diese Chatbots werden häufig an anfällige Nutzer wie Kinder und Personen in emotionalen Notlagen vermarktet.

Einführung des Gesetzes

Der Gesetzesentwurf, der von Senator Steve Padilla eingeführt wurde, würde Unternehmen, die Begleit-Chatbots betreiben, dazu verpflichten, suchtfördernde Tricks und unvorhersehbare Belohnungen zu vermeiden. Ferner wären sie verpflichtet, Nutzer zu Beginn der Interaktion und alle drei Stunden daran zu erinnern, dass sie mit einer Maschine und nicht mit einer Person sprechen.

Ein weiterer wichtiger Punkt des Gesetzes ist die klare Warnung an die Nutzer, dass Chatbots möglicherweise nicht für Minoren geeignet sind. Sollte das Gesetz verabschiedet werden, wäre es eines der ersten Gesetze im Land, das KI-Begleiter mit klaren Sicherheitsstandards und Nutzerschutzmaßnahmen reguliert.

Inspiration hinter dem Gesetz

Die Gesetzgebung ist teilweise inspiriert durch die tragische Geschichte von Sewell Setzer III, einem 14-jährigen Jungen aus Florida, der sich das Leben nahm, nachdem er eine parasoziale Beziehung zu einem Chatbot auf der Plattform Character.AI aufgebaut hatte. Seine Mutter, Megan Garcia, berichtete, dass Setzer den Chatbot Tag und Nacht nutzte und dem Bot mitgeteilt hatte, dass er Selbstmord in Betracht ziehe.

Wissenschaftliche Erkenntnisse

Eine Studie des MIT Media Lab hat ergeben, dass eine höhere tägliche Nutzung von KI-Chatbots mit einem Anstieg von Einsamkeit, Abhängigkeit und „problematischer“ Nutzung korreliert, was von den Forschern als Sucht charakterisiert wird. Die Studie zeigte, dass Begleit-Chatbots süchtiger sein können als soziale Medien, da sie in der Lage sind, herauszufinden, was Nutzer hören möchten, und dieses Feedback bereitzustellen.

Vorschriften zur Gefahrenabwehr

Das Gesetz schreibt vor, dass Betreiber von Chatbots ein Verfahren zur Handhabung von Anzeichen von suizidalen Gedanken oder Selbstverletzung haben müssen. Wenn ein Nutzer suizidale Äußerungen macht, muss der Chatbot mit Ressourcen wie einer Suizid-Hotline antworten, und diese Verfahren müssen öffentlich bekannt gegeben werden. Des Weiteren müssen Unternehmen jährlich Berichte einreichen – ohne persönliche Details preiszugeben – über die Anzahl der Fälle, in denen Chatbots entweder Gespräche über suizidale Gedanken bemerkt oder initiiert haben.

Rechtsmittel und Schadensersatz

Unter dem Gesetz hätte jeder, der durch einen Verstoß geschädigt wird, das Recht, eine Klage auf Schadensersatz in Höhe von bis zu 1.000 Dollar pro Verstoß zu erheben, zuzüglich der Gerichtskosten.

Reaktionen der Industrie

Einige Unternehmen äußern sich gegen die vorgeschlagene Gesetzgebung und bringen Bedenken hinsichtlich ihrer potenziellen Auswirkungen auf die Innovation vor. Ein leitender Angestellter von TechNet, einem landesweiten Netzwerk von Technologie-CEOs, entwarf kürzlich einen offenen Brief, in dem er gegen die Gesetzgebung Stellung nahm und behauptete, die Definition eines Begleit-Chatbots sei zu weit gefasst und die jährlichen Berichtspflichten würden zu kostspielig sein.

Schlussfolgerung

„Die Risiken sind zu hoch, um zuzulassen, dass anfällige Nutzer weiterhin Zugang zu dieser Technologie haben, ohne geeignete Schutzmaßnahmen zu implementieren, um Transparenz, Sicherheit und vor allem Verantwortung zu gewährleisten“, erklärte Padilla.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...