Leyes de Seguridad de IA: California y Nueva York en Convergencia

Leyes de Seguridad de IA en los Estados: California y Nueva York

Introducción

En 2025, California y Nueva York promulgaron leyes para imponer protecciones en el despliegue seguro de grandes «modelos de IA fronteriza». Ambas leyes buscan mitigar los riesgos catastróficos asociados con estos poderosos modelos, exigiendo a los desarrolladores que publiquen información sobre sus protocolos de seguridad, incluyendo evaluaciones de riesgos, y que reporten incidentes de seguridad críticos al estado.

Marco Regulatorio y Comparación de Leyes

La ley de California, conocida como el Acta de Transparencia en Inteligencia Artificial Fronteriza (TFAIA), fue firmada el 29 de septiembre de 2025 y entró en vigor el 1 de enero de 2026. La ley de Nueva York, Acta de Seguridad y Educación de IA Responsable (RAISE Act), fue firmada el 16 de diciembre de 2025 y comenzará a aplicarse el 1 de enero de 2027.

Provisiones Clave

  • Requisito Principal: Marco de IA Fronteriza con protocolos documentados sobre gestión y mitigación de riesgos catastróficos. (California y Nueva York iguales)
  • Modelos Cubiertos: Modelos que requieren más de 1026 operaciones. (Igual en ambos estados)
  • Desarrolladores: Incluye desarrolladores con más de $500 millones en ingresos anuales. Nueva York excluye universidades acreditadas.
  • Riesgo: Definido como un riesgo previsible que puede causar daño a más de 50 personas o más de $1 mil millones en daños. (Igual en ambos estados)
  • Incidentes Críticos: Definidos como acceso no autorizado que resulta en daño físico o la materialización de un riesgo catastrófico. (Igual en ambos estados)
  • Reporte de Incidentes: California requiere reporte a la oficina correspondiente dentro de 15 días; Nueva York dentro de 72 horas.
  • Divulgación Pública: Obligación de publicar el marco de IA fronteriza y un informe de transparencia. (Igual en ambos estados)
  • Penalidades: Hasta $1 millón por violación en California; hasta $3 millones por violaciones subsecuentes en Nueva York.
  • Protecciones para Denunciantes: Protege a empleados involucrados en la gestión de riesgos. Solo presente en California.

Implicaciones y Riesgos

Las leyes de California y Nueva York establecen un marco que promueve la transparencia y la responsabilidad en el desarrollo de la IA. Sin embargo, existe incertidumbre sobre cómo estas regulaciones serán afectadas por la orden ejecutiva federal que busca establecer un marco nacional para las leyes de IA, lo que podría resultar en desafíos legales para ambas leyes estatales.

Conclusión

Las leyes de seguridad de IA en California y Nueva York marcan un paso significativo hacia la regulación de tecnologías avanzadas. A medida que las leyes se implementan, será crucial observar su evolución y el impacto que tendrán en la industria de la inteligencia artificial y en la seguridad pública.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...