Propuesta de Proyecto de Ley del Senado Podría Traer Cambios Abruptos a la Responsabilidad de la IA, Sección 230 y Regulación Estatal, e Introduce Protecciones para el Uso de la IA
La propuesta del Proyecto de Ley de IA de Trump es un borrador de discusión que impondría responsabilidad y un deber de cuidado a los desarrolladores y desplegadores de IA para prevenir daños previsibles, moviendo la regulación de la IA hacia un marco de responsabilidad de productos.
El proyecto incluye varias disposiciones que preemptan ciertas regulaciones estatales sobre IA, al tiempo que permite explícitamente a los estados promulgar leyes con mayores protecciones que las que ofrece el proyecto. A pesar de su objetivo declarado de establecer un único reglamento federal, la cláusula de ahorro general del borrador podría dejar un espacio considerable para leyes estatales de protección al consumidor, auditoría de sesgos, transparencia y responsabilidad algorítmica.
El borrador deroga la Sección 230 dos años después de su promulgación, reconfigurando significativamente la exposición a litigios de plataformas e IA. Las reacciones iniciales sugieren que muchas leyes estatales de responsabilidad algorítmica, auditoría de sesgos y transparencia podrían sobrevivir bajo la cláusula de ahorro general del borrador.
Detalles del Proyecto de Ley
El 18 de marzo de 2026, se publicó el Proyecto de Ley de IA de Trump, un borrador de discusión de casi 300 páginas que busca establecer un marco regulatorio en torno a la IA. Esta propuesta incorpora disposiciones de proyectos de ley anteriores, como la Ley de Seguridad en Línea para Niños y la Ley de No Fakes. El proyecto también busca preemptar los marcos regulatorios estatales individuales sobre IA.
Responsabilidades Establecidas
El proyecto establecería nuevos y amplios marcos de responsabilidad para los desarrolladores y desplegadores de IA. Los desarrolladores enfrentarían reclamaciones por negligencia, responsabilidad estricta y basadas en garantías por sistemas de IA que causen daño, incluyendo daño a la propiedad, lesiones físicas, daño financiero, daño reputacional o angustia psicológica. Cuando el diseño de un producto es «manifiestamente irracional», los demandantes no necesitarían probar la existencia de un diseño alternativo razonable.
Los desplegadores que modifiquen sustancialmente un producto o lo usen intencionadamente de manera inapropiada serían tratados como desarrolladores a efectos de responsabilidad. Se aplicaría responsabilidad conjunta y solidaria cuando ambas partes hayan contribuido a un daño alegado.
Protecciones para Niños y Derechos de Creadores
El proyecto impondría un deber de cuidado a las plataformas cubiertas para prevenir daños previsibles a los menores. Estos daños incluyen trastornos alimentarios, conductas suicidas y explotación sexual. Además, se requerirían salvaguardias como límites de comunicación, protecciones contra la exposición de datos y configuraciones de exclusión para características de diseño adictivas.
Varios artículos introducirían protecciones para los «creadores». Se establecería un derecho federal de propiedad sobre la voz y la imagen visual de cada individuo, que sobreviviría a su muerte. Este derecho sería transferible y licenciable. El lenguaje del proyecto excluye el entrenamiento de IA de la doctrina de uso justo y niega la elegibilidad para la protección de derechos de autor a las obras generadas por IA no autorizadas.
Implicaciones y Riesgos
Este proyecto de ley, aunque todavía es un borrador de discusión, señala un enfoque federal que combina políticas de innovación con agresivas disposiciones de responsabilidad de productos, protección infantil, derechos de autor y responsabilidad de plataformas. Las empresas que desarrollen, ajusten, implementen o integren IA deben evaluar su exposición no solo a nuevas obligaciones de auditoría y transparencia, sino también a posibles cambios en la Sección 230.
Conclusión
Mientras el marco del proyecto es mayormente permisivo de la regulación estatal, la derogación propuesta de la Sección 230 y la creación de nuevas causas de acción federales alterarían significativamente el paisaje de litigios. Las organizaciones deberían mapear su gobernanza actual de IA, revisión de seguridad de productos, controles de seguridad infantil y prácticas de etiquetado de contenido contra los conceptos de responsabilidad, auditoría y transparencia propuestos en el borrador.