Kongress und Gerichte konfrontieren die rechtlichen Grauzonen von KI
Die künstliche Intelligenz (KI) wird zunehmend zu einem integralen Bestandteil des täglichen Lebens. Doch während die Technologie explodiert, intensiviert sich die Debatte über den richtigen und ethischen Umgang mit ihr. Diese Analyse beleuchtet, wie KI verantwortungsbewusst im Kongress eingesetzt wird, die Herausforderungen in Schulen verursacht und wie Kongress und Gerichte Missbräuche bekämpfen, die verletzliche Personen und das Urheberrecht bedrohen.
Als immer mehr Opfer von expliziten Deepfake-Bildern auftauchen und Urheberrechtsstreitigkeiten in den Gerichtssälen zunehmen, sind die legislative und die judikative Gewalt dabei, Grenzen um große Sprachmodelle (LLMs) zu ziehen. Gleichzeitig schreiben diese Technologien die gesellschaftlichen Standards um, bevor die Regierungsinstitutionen die Möglichkeit haben zu reagieren.
Die Möglichkeit, KI durch den Kongress und die Gerichte zu regulieren, wirft die umstrittene Frage auf: Wann schränken Gesetze den Missbrauch ein und wann überschreiten sie die Rechte nach dem Ersten Verfassungszusatz?
Kongress naht erstes KI-Strafgesetz mit dem Take It Down Act
Das fortschrittlichste KI-bezogene Gesetz im Kongress ist der Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, besser bekannt als der Take It Down Act. Dieser Gesetzesentwurf wurde von den Senatoren Ted Cruz (R-TX) und Amy Klobuchar (D-MN) gesponsert und im Februar einstimmig im Senat verabschiedet. Am Dienstag genehmigte das House Energy and Commerce Committee den Gesetzesentwurf mit 49 zu 1 Stimmen, was den Weg für eine vollständige Abstimmung im House ebnete.
Das Gesetz würde die nicht einvernehmliche Verbreitung von expliziten Bildern, ob real oder KI-generiert, kriminalisieren und Webseiten und Plattformen dazu verpflichten, solche Inhalte innerhalb von 48 Stunden nach einer gültigen Anfrage zu entfernen. Die rasche Unterstützung für den Gesetzesentwurf ist teilweise auf die prominente Unterstützung der First Lady Melania Trump zurückzuführen, die ihn zu einem zentralen Anliegen ihrer wiederbelebten „Be Best“-Initiative gemacht hat.
Befürworter argumentieren, dass dies längst überfällig sei. „Da böswillige Akteure weiterhin neue Technologien wie generative künstliche Intelligenz ausnutzen“, sagte Cruz, „ist der Take It Down Act entscheidend für die Beendigung der Verbreitung von ausbeuterischem sexuellem Material online und für die Verantwortung von Big Tech gegenüber den Opfern von Rache- und Deepfake-Pornografie.“
Der dringliche Charakter des Gesetzes wird durch Tragödien wie die von Elijah Heacock, einem Teenager aus Kentucky, dessen Selbstmord nach Belästigung durch Deepfake-Bilder folgte, unterstrichen. „Ich werde alles in meiner Macht Stehende tun, um den TAKE IT DOWN Act über die Ziellinie zu bringen und von Präsident Trump unterzeichnen zu lassen, um das Leben von Amerikanern wie Elijah zu ehren“, sagte Rep. Brett Guthrie (R-KY), der den Ausschuss leitet, der den Gesetzesentwurf im House betreut.
Bedenken hinsichtlich der Redefreiheit und Durchsetzungslücken
Bemerkungen von Trump, die als Scherz gedacht waren, nährten stattdessen die Bedenken von Gruppen für Bürgerrechte. Die Electronic Frontier Foundation warnte, dass das Benachrichtigungs- und Entfernen-System des Gesetzes leicht von denen ausgenutzt werden könnte, die versuchen, Kritik zum Schweigen zu bringen oder die Rede zu kontrollieren. „Es gibt nichts im Gesetz, wie es geschrieben ist, um zu verhindern, dass jemand – insbesondere diejenigen mit erheblichen Ressourcen – das System missbraucht, um Rede zu entfernen, die sie kritisiert“, schrieb die EFF als Antwort.
Selbst Befürworter der Ziele des Gesetzes machen sich Sorgen um die praktische Umsetzung. Rep. Frank Pallone (D-NJ), das ranghöchste Mitglied des Ausschusses, warnte, dass eine „unterbesetzte FTC“ die Durchsetzung nahezu unmöglich machen könnte. „Es wird keine Durchsetzung von irgendetwas in Bezug auf die Privatsphäre der Kinder geben“, sagte er.
NO FAKES Act bekämpft KI-Imitationen
Parallel zum Take It Down Act gibt es einen erneuten Vorstoß für den NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe), ein Gesetz, das gegen unbefugte digitale Imitationen mit Hilfe von KI, insbesondere von Künstlern, Darstellern und öffentlichen Personen, schützen soll.
Die neu erweiterte Version des Gesetzes würde:
- ein bundesstaatliches Recht auf öffentliche Darstellung einführen, um gegen unbefugte Nachahmungen von Stimme und Abbildung zu klagen;
- digitale Fingerabdrücke einführen, um das Wiederhochladen von entfernten Inhalten zu blockieren;
- Schutzmaßnahmen für Plattformen ausweiten, die auf Anfragen zum Entfernen reagieren;
- und zivilrechtliche Strafen von bis zu 750.000 USD pro Verstoß für Plattformen verhängen, die nicht in gutem Glauben handeln.
Die Unterstützung des Gesetzes durch Unternehmen wie Google, OpenAI, SAG-AFTRA und die großen Plattenlabels hat in beiden Kammern an Fahrt gewonnen. Befürworter argumentieren, dass es das verwirrende Patchwork von bundesstaatlichen Schutzmaßnahmen beenden würde – Gesetze, die in Umfang und Durchsetzung stark variieren.
Urheberrechtskonflikt könnte die KI-Industrie umwälzen
Unterdessen könnte ein großer Rechtsstreit ebenso transformativ sein wie jede neue Gesetzgebung. Im Fall New York Times gegen OpenAI hat ein Bundesrichter kürzlich entschieden, dass das Medium seine Klage wegen Urheberrechtsverletzung gegen OpenAI und Microsoft fortsetzen kann.
Die New York Times behauptet, dass ihre Artikel ohne Erlaubnis zur Schulung von ChatGPT verwendet wurden und das Chatbot material produziert hat, das dem Journalismus ähnelt. U.S. District Judge Sidney Stein stellte fest, dass die New York Times „zahlreiche“ und „weit verbreitete“ Beispiele für potenzielle Verletzungen gezeigt hat, wodurch die zentralen Ansprüche aufrechterhalten wurden.
„Dies ist ein monumentaler Fall mit enormen Auswirkungen auf die Wettbewerbsfähigkeit der KI in Amerika“, sagte Kevin Frazier, ein KI-Rechtswissenschaftler.
Wenn die Gerichte zugunsten der New York Times