El Congreso y los tribunales enfrentan las áreas grises legales de la IA
La inteligencia artificial se está convirtiendo rápidamente en una parte integral de la vida cotidiana. Sin embargo, a medida que la tecnología avanza, el debate sobre cómo manejarla de manera adecuada y ética se intensifica. Este artículo analiza cómo se está utilizando la IA de manera responsable en el Congreso, cómo su uso está causando problemas en las escuelas y cómo las instituciones legislativas y judiciales están abordando los abusos que afectan a las personas vulnerables y las amenazas a la propiedad intelectual.
A medida que emergen más víctimas de imágenes deepfake explícitas y las disputas de derechos de autor se intensifican en los juzgados, las ramas legislativa y judicial están luchando por establecer límites alrededor de los modelos de lenguaje grande (LLMs). Todo esto ocurre mientras estas tecnologías redefinen los estándares de la sociedad antes de que las instituciones gubernamentales tengan la oportunidad de reaccionar.
La regulación de la IA y el dilema de los derechos de la Primera Enmienda
El desafío de regular la IA a través del Congreso y los tribunales se ha convertido en una cuestión polémica: ¿cuándo las leyes limitan el abuso y cuándo sobrepasan los derechos de la Primera Enmienda? En Washington, los legisladores están avanzando con proyectos de ley destinados a frenar los peores abusos de la inteligencia artificial, especialmente en lo que respecta al contenido sexualmente explotador y la suplantación digital no autorizada de músicos y materiales protegidos por derechos de autor.
Recientemente, un juez permitió que la demanda entre el New York Times y OpenAI continuara, la cual decidirá si ChatGPT plagió y robó propiedad intelectual del gigante de las noticias.
El Congreso avanza hacia la primera ley penal sobre IA con la Ley “Take It Down”
La legislación más avanzada relacionada con la IA en el Congreso es la Ley Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, conocida como la Take It Down Act. Patrocinada por los senadores Ted Cruz (R-TX) y Amy Klobuchar (D-MN), la ley fue aprobada por el Senado por consentimiento unánime en febrero. El martes, el Comité de Energía y Comercio de la Cámara aprobó el proyecto en una votación de 49 a 1, allanando el camino para una votación completa en la Cámara.
La legislación criminalizaría la distribución no consensuada de imágenes explícitas, ya sean reales o generadas por IA, y requeriría que los sitios web y plataformas eliminen dicho contenido dentro de las 48 horas posteriores a una solicitud válida. El rápido impulso de la ley se debe en parte al respaldo de alto perfil de la primera dama Melania Trump, quien ha hecho de esto una causa central de su iniciativa “Be Best”.
Preocupaciones sobre la libertad de expresión y los vacíos en la aplicación de la ley
Los comentarios del presidente Donald Trump sobre la ley, que pretendían ser humorísticos, generaron preocupación entre grupos de libertades civiles. La Electronic Frontier Foundation advirtió que el sistema de notificación y eliminación de la ley podría ser fácilmente explotado por quienes buscan silenciar críticas o controlar el discurso. A pesar de que los partidarios de la ley enfatizan su intención de proteger a los más vulnerables, algunos advierten sobre su implementación práctica.
El Acta NO FAKES aborda la suplantación digital de IA
Paralelamente a la Take It Down Act, se reaviva el impulso por el NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe), una ley destinada a proteger contra las suplantaciones digitales no autorizadas mediante IA, particularmente de artistas, intérpretes y figuras públicas. La versión ampliada de la ley establecería un derecho federal de publicidad para demandar por réplicas no autorizadas de voz y apariencia, así como requeriría el fingerprinting digital para bloquear reuploads de contenido eliminado.
Conflictos de derechos de autor y su impacto en la industria de IA
Mientras tanto, una batalla judicial importante podría resultar tan transformadora como cualquier nueva ley. En el caso New York Times v. OpenAI, un juez federal permitió que el medio continuara su demanda acusando a OpenAI y Microsoft de infracción de derechos de autor. El New York Times alega que sus artículos fueron utilizados sin permiso para entrenar a ChatGPT y que el chatbot ha producido material que se asemeja a su periodismo.
El juez Sidney Stein encontró que el New York Times había mostrado “numerosos” ejemplos de posible infracción, manteniendo vivas las reclamaciones centrales. Esto ha llevado a cuestionar cómo la legislación actual está afectando la innovación en el sector de la inteligencia artificial.
Este contexto nos invita a reflexionar sobre la necesidad de un enfoque más matizado en la regulación de la IA, evitando soluciones legislativas permanentes para tecnologías emergentes y buscando un equilibrio entre la protección de los derechos de propiedad intelectual y el fomento de la innovación.