Impacto del RAISE Act en la Innovación y Seguridad de la IA

AI Safety o Congelación de Innovación: Lo Que Está Mal en la Ley RAISE de Nueva York

La Ley de Seguridad y Educación de IA Responsable (RAISE Act), recientemente aprobada por la legislatura del estado de Nueva York, intenta abordar los riesgos fundamentales que presentan los modelos de IA avanzada. Sin embargo, al imponer obligaciones únicamente a los desarrolladores de dichos modelos, descuida la cadena de valor más amplia de la IA, lo que puede sofocar la innovación sin mejorar significativamente la seguridad.

Contexto de la Ley RAISE

El 12 de junio de 2025, la legislatura del estado de Nueva York aprobó la Ley RAISE, la cual está a la espera de la aprobación de la gobernadora Kathy Hochul. Esta medida sigue a la One Big Beautiful Bill Act, que originalmente contemplaba una moratoria de diez años en la regulación de la IA a nivel estatal, pero nunca adoptó tal congelación. La Ley RAISE marca el primer intento importante de regular la IA avanzada en Nueva York y en los EE. UU., aplicándose no solo a todos los modelos avanzados desarrollados en el estado, sino también a cualquier modelo disponible para los residentes de Nueva York.

Características Clave de la Ley RAISE

Inspirada en la Ley de IA de la UE y el SB 1047 de California (veto por el gobernador Gavin Newsom en 2024 debido a preocupaciones sobre la innovación), la Ley RAISE busca garantizar la seguridad de los «modelos avanzados», definidos como aquellos que costarán más de 100 millones de dólares para entrenar y que exceden un umbral computacional especificado. El objetivo es prevenir el mal uso que podría causar daños críticos, definidos como la muerte o lesiones graves de al menos 100 personas, o daños económicos de 1,000 millones de dólares o más.

Obligaciones de los Desarrolladores

Antes de lanzar un modelo avanzado, un desarrollador debe:

  • Implementar protocolos de seguridad y seguridad, incluyendo riesgos creados por usos de terceros del modelo fuera del control del desarrollador.
  • Publicar de manera conspicua esos protocolos y enviarlos a la División de Seguridad Nacional y Servicios de Emergencia.
  • Implementar salvaguardias para prevenir riesgos no razonables de daño crítico.

Si no se pueden prevenir los riesgos no razonables, la Ley prohíbe el lanzamiento del modelo. La aplicación recae en el Fiscal General, quien puede imponer sanciones civiles de hasta 10 millones de dólares por una violación inicial y hasta 30 millones de dólares por violaciones repetidas.

Un Enfoque Unilateral

La Ley RAISE impone todas las obligaciones a los desarrolladores de modelos avanzados, sin extender deberes a otros actores en la cadena de valor de la IA, como aquellos que ajustan o modifican modelos, los que los integran en sistemas de IA o los usuarios finales. Esto contrasta con la Ley de IA de la UE, que, aunque criticada por su complejidad y altos costos de cumplimiento, distribuye las obligaciones entre múltiples categorías de actores.

El Problema del «Daño Crítico»

El concepto de “riesgo de daño crítico” es igualmente defectuoso. Los modelos avanzados son inherentemente de propósito general; los riesgos que presentan dependen de sus usos posteriores, que varían ampliamente según el sector y el contexto. Sin embargo, la Ley requiere que los desarrolladores evalúen y mitiguen estos riesgos ex ante, en el momento del lanzamiento, cuando tales riesgos son en gran medida especulativos y difíciles de medir.

Conclusión

La Ley RAISE no establece un marco equilibrado para la gobernanza de la IA. Al dirigirse únicamente a los desarrolladores de modelos avanzados y depender de conceptos vagos de “daño crítico”, crea incertidumbre legal y expone a los desarrolladores a enforcement sin una guía clara. En vez de centralizar la responsabilidad en los desarrolladores, sería más efectivo regular toda la cadena de valor para asegurar una distribución justa de responsabilidades.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...