Leyes de Seguridad de IA en los Estados: California y Nueva York
Introducción
En 2025, California y Nueva York promulgaron leyes para imponer protecciones en el despliegue seguro de grandes «modelos de IA fronteriza». Ambas leyes buscan mitigar los riesgos catastróficos asociados con estos poderosos modelos, exigiendo a los desarrolladores que publiquen información sobre sus protocolos de seguridad, incluyendo evaluaciones de riesgos, y que reporten incidentes de seguridad críticos al estado.
Marco Regulatorio y Comparación de Leyes
La ley de California, conocida como el Acta de Transparencia en Inteligencia Artificial Fronteriza (TFAIA), fue firmada el 29 de septiembre de 2025 y entró en vigor el 1 de enero de 2026. La ley de Nueva York, Acta de Seguridad y Educación de IA Responsable (RAISE Act), fue firmada el 16 de diciembre de 2025 y comenzará a aplicarse el 1 de enero de 2027.
Provisiones Clave
- Requisito Principal: Marco de IA Fronteriza con protocolos documentados sobre gestión y mitigación de riesgos catastróficos. (California y Nueva York iguales)
- Modelos Cubiertos: Modelos que requieren más de 1026 operaciones. (Igual en ambos estados)
- Desarrolladores: Incluye desarrolladores con más de $500 millones en ingresos anuales. Nueva York excluye universidades acreditadas.
- Riesgo: Definido como un riesgo previsible que puede causar daño a más de 50 personas o más de $1 mil millones en daños. (Igual en ambos estados)
- Incidentes Críticos: Definidos como acceso no autorizado que resulta en daño físico o la materialización de un riesgo catastrófico. (Igual en ambos estados)
- Reporte de Incidentes: California requiere reporte a la oficina correspondiente dentro de 15 días; Nueva York dentro de 72 horas.
- Divulgación Pública: Obligación de publicar el marco de IA fronteriza y un informe de transparencia. (Igual en ambos estados)
- Penalidades: Hasta $1 millón por violación en California; hasta $3 millones por violaciones subsecuentes en Nueva York.
- Protecciones para Denunciantes: Protege a empleados involucrados en la gestión de riesgos. Solo presente en California.
Implicaciones y Riesgos
Las leyes de California y Nueva York establecen un marco que promueve la transparencia y la responsabilidad en el desarrollo de la IA. Sin embargo, existe incertidumbre sobre cómo estas regulaciones serán afectadas por la orden ejecutiva federal que busca establecer un marco nacional para las leyes de IA, lo que podría resultar en desafíos legales para ambas leyes estatales.
Conclusión
Las leyes de seguridad de IA en California y Nueva York marcan un paso significativo hacia la regulación de tecnologías avanzadas. A medida que las leyes se implementan, será crucial observar su evolución y el impacto que tendrán en la industria de la inteligencia artificial y en la seguridad pública.