Avances en la Ley de IA de Nueva York
El estado de Nueva York ha tomado un paso significativo hacia convertirse en el primero en Estados Unidos en establecer estándares de transparencia legalmente obligatorios para los sistemas de inteligencia artificial (IA) de frontera. La Ley de Seguridad y Educación de IA Responsable (RAISE Act), que tiene como objetivo prevenir desastres impulsados por IA mientras equilibra las preocupaciones de innovación que llevaron al fracaso de esfuerzos similares en otros estados, fue aprobada por ambas cámaras de la Legislatura del Estado de Nueva York en junio de 2025, y ahora se dirige al escritorio de la Gobernadora Kathy Hochul, quien podría firmar la ley, devolverla para enmiendas o vetarla por completo.
Antecedentes y Disposiciones Clave
La RAISE Act surgió de las lecciones aprendidas de la fallida SB 1047 de California, que fue finalmente vetada por el Gobernador Gavin Newsom en septiembre de 2024. La RAISE Act se dirige solo a los sistemas de IA más potentes, aplicándose específicamente a las empresas cuyos modelos de IA cumplan con ambos criterios:
- Umbral de Costo de Entrenamiento: Los modelos de IA fueron entrenados utilizando más de 100 millones de dólares en recursos computacionales.
- Alcance Geográfico: Los modelos están disponibles para los residentes de Nueva York.
Este alcance limitado excluye deliberadamente a empresas más pequeñas, startups e investigadores académicos, abordando críticas clave a la SB 1047 de California.
Requisitos Fundamentales
La legislación establece cuatro obligaciones principales para las empresas cubiertas:
- Protocolos de Seguridad y Protección: Se requiere que las empresas de IA más grandes publiquen protocolos de seguridad y evaluaciones de riesgos. Estos protocolos cubren riesgos severos, como la asistencia en la creación de armas biológicas o la realización de actividades criminales automatizadas.
- Informe de Incidentes: La ley también requiere que los laboratorios de IA informen sobre incidentes de seguridad, como comportamientos preocupantes de modelos de IA o el robo de un modelo de IA, si ocurren. Esto incluye escenarios en los que modelos de IA peligrosos son comprometidos por actores maliciosos o exhiben comportamientos autónomos preocupantes.
- Evaluación y Mitigación de Riesgos: Las empresas deben realizar evaluaciones de riesgos exhaustivas que cubran escenarios catastróficos, incluyendo:
- Muertes o lesiones de más de 100 personas
- Daños económicos que superen los 1,000 millones de dólares
- Asistencia en la creación de armas biológicas o químicas
- Facilitación de actividades criminales a gran escala
- Auditoría de Terceros: Realizar auditorías de terceros para garantizar el cumplimiento de la ley.
Mecanismos de Aplicación
Si las empresas tecnológicas no cumplen con estos estándares, la RAISE Act otorga al fiscal general de Nueva York la facultad de imponer sanciones civiles de hasta 30 millones de dólares. Esta estructura de aplicación proporciona un poder disuasorio significativo mientras evita la responsabilidad penal.
Provisiones de Puerto Seguro
La Ley incluye importantes protecciones para el desarrollo responsable, permitiendo a las empresas realizar «redacciones apropiadas» en los protocolos de seguridad cuando sea necesario para:
- Proteger la seguridad pública
- Proteger secretos comerciales
- Mantener información confidencial según lo exige la ley
- Proteger la privacidad de empleados o clientes
Diferencias Clave con la SB 1047 de California
Para los modelos de IA de frontera, la RAISE Act de Nueva York parece diseñada para abordar críticas específicas de la fallida SB 1047 de California:
- Sin Requisito de «Kill Switch»: La RAISE Act no exige que los desarrolladores de modelos de IA incluyan un «kill switch» en sus modelos.
- Sin Responsabilidad Post-Entrenamiento: No responsabiliza a las empresas que post-entrenan modelos de IA de frontera por daños críticos.
- Exenciones Académicas: Universidades e instituciones de investigación están excluidas de la cobertura.
- Protección para Startups: El alto umbral de costo computacional asegura que las empresas más pequeñas no se vean afectadas.
Reglamento Regulador Más Amplio
La RAISE Act representa un debate más amplio sobre la regulación de IA en Estados Unidos. Consideraciones clave incluyen:
- Fragmentación Regulatoria: El potencial de un mosaico de regulaciones estatales que crea desafíos de cumplimiento.
- Preclusión Federal: Los esfuerzos en curso del Congreso para establecer estándares nacionales uniformes.
- Competitividad Internacional: Equilibrar las preocupaciones de seguridad con el mantenimiento del liderazgo de EE. UU. en el desarrollo de IA.
Implicaciones Legales
Las empresas que operan modelos de IA de frontera en Nueva York deben considerar prepararse para los posibles requisitos de cumplimiento:
- Documentación de Protocolos de Seguridad: Comenzar a desarrollar protocolos de seguridad y protección que puedan soportar el escrutinio público mientras protegen información confidencial.
- Sistemas de Respuesta a Incidentes: Establecer sistemas robustos para detectar, documentar e informar incidentes de seguridad.
- Preparación para Auditorías de Terceros: Identificar auditores calificados y establecer sistemas de documentación listos para auditoría.
- Revisión Legal: Realizar un análisis legal exhaustivo de las operaciones actuales bajo el marco regulatorio propuesto.
Este análisis se basa en información disponible públicamente a partir de junio de 2025. Los profesionales legales deben monitorear los desarrollos en curso y consultar la legislación y regulaciones actuales para los requisitos más actualizados.
Para los modelos de IA de frontera, la Ley RAISE de Nueva York parece diseñada para abordar críticas específicas de la fallida SB 1047 de California.