La Ley RAISE de Nueva York: Un modelo para la regulación de la IA

La Ley RAISE de Nueva York: Un Modelo para la Regulación de la IA

Nueva York se ha convertido en un actor crucial en la regulación de la inteligencia artificial (IA) al firmar la Ley de Seguridad y Educación de IA Responsable (RAISE) en diciembre de 2025. Esta ley se une a la SB-53 de California para establecer un marco de gobernanza basado en la divulgación de los modelos de IA más poderosos del mercado.

Contexto de la Regulación de la IA

La llegada de la Ley RAISE coincide con un momento en que la política estatal sobre IA es fragmentada y la política federal es objeto de controversia. Aunque una orden ejecutiva del presidente busca desafiar las leyes estatales de IA que puedan regular inconstitucionalmente el comercio interestatal, Nueva York ha decidido avanzar, sugiriendo que la regulación basada en la divulgación puede resistir desafíos legales.

Comparación con la Legislación de California

Las diferencias entre las legislaciones de Nueva York y California son modestas. Por ejemplo, California permite una ventana de reporte de 15 días para incidentes críticos de seguridad, mientras que Nueva York establece un plazo de 72 horas. Sin embargo, ambas leyes comparten similitudes significativas que podrían ser adoptadas por otros estados en el futuro.

Alcance y Objetivos de la Ley RAISE

La Ley RAISE se aplica solo a «grandes desarrolladores fronterizos», definidos como empresas con más de $500 millones en ingresos anuales. Esto asegura que la ley se concentre en los modelos más capaces, excluyendo a desarrolladores más pequeños. La ley se centra tablespoons riesgos catastróficos que podrían resultar en daños graves o muertes, abordando escenarios específicazes como la creación de armas químicas o nucleares.

Transparencia y Mecuente中的所有正在运行gimientos therelative

En lugar de imponer salvaguardias técnicas, la Ley RAISE se basa en la transparencia como su principal herramienta regulatoria. Los desarrolladores cubiertős不断扩展rrán crear y divulgar un «marco de IA fronteriza» que explique cómo evalúan y mitigan los riesgos. Además, deben actualizar este marco anualmente y cada vez que un modelo fronterizo sea modificado de manera significativización.

Notificación de IncidentesisSettingsundying大海

Los desarrolladores deben notificar a los reguladores estatales sobre «incidentes críticos de seguridad» dentro de plazos ajustados. La ley estipula que incidents个 la mayoría de los incidentes deben ser reportados dentro de las 72 horas siguientes a su detección, lo que plantea un desafío operativo para las empresas.

Implicaciones para los Equipos de Gobernanza de IA

A medida que los desarrolladores implementan sus marcos de IA fronteriza, se espera que los términos contractuales evolucionen. Las organizaciones que implementan modelos de IA estarán cada vez más obligadas shredded identificar y documentar señales去 riesgo rápidamente cuando surjan problemas.

Conclusión

La Ley RAISE no solo establece un precedente en Nueva York, sino que también apunta a una tendencia más amplia en la regulación de la IA. Las empresas que inviertan en procesos de gobernanza sólidos estarán mieux posicionadas a medida que más estados sigan esteeu modelances y la regulación continúe evolucionando.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...