Sección 230 y Plataformas Impulsadas por IA
Grok, un chatbot de IA, ha sido objeto de un intenso escrutinio global tras generar imágenes sexualmente explícitas de usuarios sin su consentimiento. Los esfuerzos para hacer responsables a las plataformas se basan en la interpretación de la Sección 230 de la Ley de Comunicaciones y Decencia.
La Sección 230 generalmente protege a las plataformas de la responsabilidad civil por contenido de terceros. Por ejemplo, bajo esta sección, una empresa no sería responsable por discursos ilegales publicados en su plataforma por un usuario.
Esta aplicación tradicional de la Sección 230 presume que un usuario publica contenido y la plataforma actúa como un intermediario. Sin embargo, la inteligencia artificial (IA) no encaja perfectamente en esta dicotomía usuario-anfitrión. La IA interrumpe la aplicación tradicional de la Sección 230 de dos maneras principales: como generador de contenido y como curador de contenido.
Generación de Contenido por IA
Aunque un usuario puede solicitar una salida específica y novedosa, el contenido generado por IA no puede atribuirse únicamente a ese usuario. Asimismo, el chatbot de IA no puede considerarse el único orador, ya que sus datos de entrenamiento no provienen de la plataforma y sus salidas dependen de los prompts de los usuarios. La ambigüedad sobre la identidad del «orador» socava la base de la responsabilidad basada en el orador de la Sección 230.
Aun cuando los usuarios crean contenido, los algoritmos de IA a menudo determinan el alcance e impacto de ese contenido en la plataforma social. Por ejemplo, el feed «Para ti» de TikTok o el sistema de recomendaciones de YouTube pueden amplificar rápidamente publicaciones particulares a grandes audiencias basadas en la predicción de compromiso de los usuarios.
La suposición subyacente de la Sección 230—que las plataformas actúan como conductos neutrales de información—se vuelve cuestionable cuando las plataformas diseñan e implementan algoritmos de recomendación que promueven o suprimen discursos.
Implicaciones Legales y Debate Académico
En un seminario reciente, académicos debatieron la aplicación de la Sección 230 a plataformas que emplean inteligencia artificial generativa o algoritmos de recomendación. Un artículo advierte que los litigios sobre IA generativa forzarán a los tribunales a reevaluar las inmunidades de la Sección 230 otorgadas a las plataformas de contenido en Internet. Se predice que los tribunales no extenderán las inmunidades de la Sección 230 a la IA generativa donde contribuyan materialmente al desarrollo del contenido.
Otros académicos abogan por un enfoque «primero en valores», donde la comunidad legal defina los valores sociales que los reguladores y diseñadores de IA buscan promover antes de regular las salidas de IA generativa. Se argumenta que la interpretación de la Sección 230 es profundamente ambigua y que las decisiones judiciales podrían afectar la responsabilidad de las plataformas.
Conclusión
El debate sobre la Sección 230 y su aplicación a las plataformas impulsadas por IA es complejo y evolutivo. A medida que la tecnología avanza, también lo deben hacer las leyes y regulaciones que la rigen, asegurando que las plataformas sean responsables de su contenido y prácticas.