Ein effektiver Ansatz zur Regulierung von KI und sozialen Medien

Der Fahrplan zur Verabschiedung von KI- und sozialen Medienregulierungen

Die rasche Bewegung des Take It Down Act vom Gesetzesentwurf zum Gesetz beweist, dass es möglich ist, einen zielgerichteten Ansatz zur Regulierung von KI zu verfolgen, ohne die Innovation zu behindern. Der Erfolg dieses Gesetzes könnte der Schlüssel sein, um die 27-jährige Lücke bei der Verabschiedung von Gesetzen zu schließen, die sich mit Online-Schäden für Kinder befassen.

Bundesebene und der Take It Down Act

Auf Bundesebene kriminalisiert das Gesetz die Veröffentlichung von nicht einvernehmlichen intimen Bildern online, egal ob real oder KI-generiert. Es verlangt von Plattformen, einen klaren und auffälligen Prozess anzubieten, über den Opfer die Entfernung dieser Bilder anfordern können, und verpflichtet die Plattformen, diesen Anfragen innerhalb von 48 Stunden nachzukommen.

Bipartisaner und bicameraler Support

Der Gesetzesentwurf erhielt Unterstützung, die sowohl bipartisan als auch bicameral war, mit demokratischen Mitführern. Es spielt keine Rolle, wer von beiden, Senator Ted Cruz aus Texas oder Abgeordnete Maria Elvira Salazar aus Florida, mehr für diesen Gesetzentwurf tat. Beide übernahmen die Verantwortung und setzten sich in ihren jeweiligen Kammern vehement für die Verabschiedung des Gesetzes ein.

Erfolgsfaktoren des Gesetzes

Im 118. Kongress wurden nur 3 % der eingebrachten Gesetzentwürfe schließlich Gesetz. Der bicamerale Ansatz des 119. Kongresses für den Take It Down Act war der erste „Goldstern“ des Gesetzes, der es von anderen Gesetzentwürfen abhebt und zu seiner raschen Verabschiedung führt.

Ein zweiter „Goldstern“ war die Unterstützung des Weißen Hauses. Nachdem der Senat den Gesetzentwurf im Februar zum zweiten Mal verabschiedet hatte, galvanisierte die Unterstützung von First Lady Melania Trump im März die Bewegung. Anfang April genehmigte der Haus-Energie- und Handelsausschuss den Gesetzentwurf, und das volle Haus verabschiedete ihn kurz darauf.

Der dritte – und möglicherweise herausforderndste – „Goldstern“ war die Unterstützung von Big Tech-Unternehmen. Der Take It Down Act, formal tituliert als Tools to Address Known Exploitation by Immobilizing Technological Deepfakes On Websites and Networks Act, erhielt die Unterstützung von fast 200 solcher Unternehmen, darunter Meta, TikTok, Snap und X.

Regulierungsdruck und öffentliche Sicherheit

Jahre eskalierender kongressionaler Prüfung haben wahrscheinlich dazu beigetragen, Big Tech an Bord zu bringen. Seit 2019 hat der Kongress 24 Anhörungen zur Online-Sicherheit von Kindern abgehalten, oft mit der Aufforderung (freiwillig oder per Vorladung) an CEOs von Technologieunternehmen, auszusagen.

Inzwischen haben mehrere Bundesstaaten kinderfokussierte soziale Mediengesetze und modernisierte CSAM-Gesetze erlassen, um KI-generierte Inhalte abzudecken. Dieser kumulative Druck hat sinnvolle bundesstaatliche Maßnahmen möglich gemacht.

Die Botschaft des Gesetzes

Der Take It Down Act erforderte keine Einstimmigkeit. Die Pornografieindustrie unterstützte das Gesetz nicht, und viele Verfechter der Technologiebranche lehnten das Gesetz in jeder Phase ab. Doch in Kombination mit den 22 Bundesstaaten, die Altersverifikationsgesetze für Inhalte für Erwachsene verabschiedeten, sendet das Gesetz eine klare Botschaft: Gesetzgeber sind bereit zu handeln, wenn Unternehmen Schäden an Kindern verursachen.

Bei der Unterzeichnungszeremonie des Gesetzes bemerkte Frau Trump: „Künstliche Intelligenz und soziale Medien sind das digitale Bonbon für die nächste Generation. Süß, süchtig machend und darauf ausgelegt, die kognitive Entwicklung unserer Kinder zu beeinflussen. Aber im Gegensatz zu Zucker kann diese neue Technologie bewaffnet werden, Überzeugungen formen und leider Emotionen beeinflussen und sogar tödlich sein.“

Der Weg nach vorne

Künstliche Intelligenz und soziale Medien sind nun untrennbar miteinander verbunden. Der Algorithmus von TikTok wird von KI unterstützt. Meta verwendet KI in seinen Suchwerkzeugen, Chatbots und Empfehlungssystemen.

Jetzt ist Meta-CEO Mark Zuckerberg dabei, in generativer KI führend zu werden, nachdem er beim wachstumsorientierten Algorithmus zurückgefallen ist – und setzt KI in anthropomorphen und emotional manipulativen Formen ein, wie z.B. „freundlichen“ Chatbots.

Diese Designmerkmale erfordern öffentliche Aufsicht, insbesondere wenn sie für Kinder zugänglich sind und nachweislich Schaden verursachen.

Gezielte Regulierungen dieser Anwendungsfälle und Designmerkmale werden Missbrauch mildern, ohne die Vorteile von Innovation zu untergraben. Die Strategie hinter dem Take It Down Act bietet einen Fahrplan für den Erfolg: bipartisaner Support, bicamerale Führung, exekutive Zustimmung, Industrieunterstützung und anhaltender öffentlicher Druck.

Jahre der Ausbeutung von Jugendlichen und des Leidens von Familien sowie ein Anstieg des öffentlichen Zeugnisses von Betroffenen haben die Tür zu einer stärkeren regulatorischen Haltung gegenüber Online-Plattformen geöffnet. Ob in den Bundesstaaten, im Kongress oder durch eine erneuerte Be Best-Initiative der First Lady, die Bewegung, Big Tech für Schäden an Kindern zur Verantwortung zu ziehen, ist stark – und sie wächst weiter.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...