Section 230 und KI-gesteuerte Plattformen
Grok, ein KI-Chatbot, steht derzeit aufgrund der Erstellung sexuell expliziter Bilder von nicht einwilligenden Nutzern weltweit in der Kritik. Die Bemühungen, die Plattform haftbar zu machen, hängen von der Auslegung von Section 230 des Communications Decency Act ab.
Section 230 schützt Plattformen im Allgemeinen vor zivilrechtlicher Haftung für Inhalte Dritter. Diese traditionelle Anwendung von Section 230 geht davon aus, dass ein Nutzer Inhalte postet und die Plattform als intermediärer Inhaltsanbieter agiert.
Die Herausforderungen durch KI
Allerdings passt künstliche Intelligenz nicht eindeutig in diese Nutzer-Anbieter-Dichotomie. KI verändert die traditionelle Anwendung von Section 230 auf zwei Hauptarten: KI als Inhaltsgenerator und KI als Inhaltskurator. Obwohl ein Nutzer spezifische und neuartige Ausgaben anfordern kann, kann KI-generierter Inhalt nicht ausschließlich diesem Nutzer zugeschrieben werden. Ebenso kann der generative KI-Chatbot nicht als alleiniger Sprecher betrachtet werden, da seine Trainingsdaten nicht von der Plattform stammen und die generierten Ausgaben von den Eingabeaufforderungen der Nutzer abhängen. Diese Unklarheit über die Identität des „Sprechers“ untergräbt die Grundlage der haftungsbasierten Verantwortung von Section 230.
Selbst wenn Nutzer Inhalte erstellen, bestimmen KI-Algorithmen oft die Reichweite und den Einfluss dieser Inhalte auf der Plattform. Beispielweise kann der „For You“-Feed von TikTok oder das Empfehlungssystem von YouTube bestimmte Posts schnell einem großen Publikum präsentieren, basierend auf den vorhergesagten Interaktionen der Nutzer mit den Inhalten.
Die Annahme, dass Plattformen als neutrale Informationskanäle agieren, wird fragwürdig, wenn Plattformen aktiv Empfehlungsalgorithmen entwerfen und implementieren, die Inhalte fördern oder unterdrücken.
Rechtsfragen und zukünftige Entwicklungen
Obwohl Plattformen nach Section 230 keine Verpflichtung zur Überwachung von Inhalten haben, hat ein kürzlich von der US-Bundesregierung verabschiedetes Gesetz, das Take It Down Act, eine Haftung für Plattformen eingeführt, die intime Bilder nach einer ausdrücklichen Benachrichtigung durch die Federal Trade Commission nicht entfernen.
In einer aktuellen Diskussion analysieren Wissenschaftler die Anwendung von Section 230 auf Plattformen, die generative künstliche Intelligenz oder Empfehlungsalgorithmen verwenden. Es wird erwartet, dass Klagen gegen generative KI die Gerichte dazu zwingen werden, die immunitätsrechtlichen Bestimmungen von Section 230 neu zu bewerten. Es gibt auch Überlegungen, wie die Haftung zwischen dem KI-Werkzeug, dem Nutzer und dem Entwickler verteilt werden sollte, um gesellschaftliche Werte zu berücksichtigen.
Zusammenfassend lässt sich sagen, dass die rechtlichen Implikationen von Section 230 für KI-gesteuerte Plattformen komplex sind und potenziell Auswirkungen auf die Haftung sozialer Medien haben können. Es ist wichtig, dass sowohl Designer als auch Juristen sich auf diese Veränderungen vorbereiten, um verantwortungsvolle und transparente Technologien zu entwickeln.