La Nueva Ley RAISE: Un Paso Adelante en la Regulación de la IA en Nueva York

De la Transparencia a la Supervisión: La Ley RAISE de Nueva York Eleva el Listón para los Desarrolladores de IA de Frontera

El 19 de diciembre de 2025, se firmó la Ley de Seguridad y Educación en IA Responsable (Ley RAISE) en Nueva York. Esta legislación establece un marco específico para el desarrollo y despliegue de modelos de inteligencia artificial de frontera, centrándose en la seguridad, la transparencia y la prevención y reporte de incidentes que puedan causar daños catastróficos. La Ley RAISE entrará en vigor completamente el 1 de julio de 2027, sin un período de implementación gradual.

Obligaciones Impuestas

La Ley RAISE impone obligaciones afirmativas de seguridad, documentación, auditoría y reporte de incidentes a los grandes desarrolladores de modelos de IA de frontera, con la supervisión del Fiscal General de Nueva York. No regula a los usuarios comunes ni a los desplegadores de IA como una clase separada.

El gobernador de Nueva York indicó que la ley refleja enmiendas acordadas que alinean su enfoque con la Ley de Transparencia en la Inteligencia Artificial de Frontera de California. La Ley RAISE se concentra en los modelos de frontera más capaces y en las obligaciones de cumplimiento para los grandes desarrolladores.

Importancia de la Ley RAISE

La Ley RAISE es significativa por tres razones principales. Primero, va más allá de las obligaciones basadas en la transparencia y requiere que los grandes desarrolladores implementen, documenten y auditen protocolos de seguridad. Segundo, establece un plazo de reporte de incidentes de seguridad de 72 horas, más agresivo que el de 15 días de California. Tercero, indica una creciente convergencia entre los estados en torno a la gobernanza de los modelos de frontera.

¿A Quién se Aplica la Ley RAISE?

La Ley RAISE se aplica a los grandes desarrolladores de modelos de IA de frontera que se desarrollan o despliegan en Nueva York. Un «modelo de frontera» se define por su gran escala y las obligaciones aumentan solo para los desarrolladores que cumplen ciertos umbrales de costo computacional.

Requisitos para los Desarrolladores

Los desarrolladores cubiertos deben adoptar y mantener un protocolo de seguridad y protección en IA por escrito, que aborde los riesgos asociados con el desarrollo y despliegue de modelos de IA de frontera. Deben documentar procedimientos de prueba, resultados y salvaguardas utilizadas para evaluar y mitigar riesgos. Además, se requiere una auditoría independiente anual de cumplimiento con sus requisitos de seguridad.

Los desarrolladores deben reportar incidentes de seguridad calificados al Estado dentro de las 72 horas posteriores a la notificación del incidente. Un incidente de seguridad se define como un evento que evidencia un riesgo aumentado de daño crítico, incluyendo pérdidas catastróficas o daños económicos significativos.

Comparación con la Ley SB 53 de California

Tanto la Ley RAISE como la Ley SB 53 de California se dirigen a desarrolladores de los modelos de IA más capaces, pero difieren en la prescripción de sus obligaciones. La Ley RAISE impone protocolos de seguridad y auditorías anuales, mientras que la Ley SB 53 se centra más en informes de transparencia estandarizados y períodos de reporte más largos.

Conclusión

Para las organizaciones que desarrollan modelos de IA altamente capaces, la Ley RAISE representa un escalón significativo en comparación con la Ley SB 53 de California. Las empresas que ya se preparan para SB 53 deben anticipar obligaciones adicionales en Nueva York, especialmente en torno a la preparación para auditorías y el reporte acelerado de incidentes.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...