AI Safety o Congelación de Innovación: Lo Que Está Mal en la Ley RAISE de Nueva York
La Ley de Seguridad y Educación de IA Responsable (RAISE Act), recientemente aprobada por la legislatura del estado de Nueva York, intenta abordar los riesgos fundamentales que presentan los modelos de IA avanzada. Sin embargo, al imponer obligaciones únicamente a los desarrolladores de dichos modelos, descuida la cadena de valor más amplia de la IA, lo que puede sofocar la innovación sin mejorar significativamente la seguridad.
Contexto de la Ley RAISE
El 12 de junio de 2025, la legislatura del estado de Nueva York aprobó la Ley RAISE, la cual está a la espera de la aprobación de la gobernadora Kathy Hochul. Esta medida sigue a la One Big Beautiful Bill Act, que originalmente contemplaba una moratoria de diez años en la regulación de la IA a nivel estatal, pero nunca adoptó tal congelación. La Ley RAISE marca el primer intento importante de regular la IA avanzada en Nueva York y en los EE. UU., aplicándose no solo a todos los modelos avanzados desarrollados en el estado, sino también a cualquier modelo disponible para los residentes de Nueva York.
Características Clave de la Ley RAISE
Inspirada en la Ley de IA de la UE y el SB 1047 de California (veto por el gobernador Gavin Newsom en 2024 debido a preocupaciones sobre la innovación), la Ley RAISE busca garantizar la seguridad de los «modelos avanzados», definidos como aquellos que costarán más de 100 millones de dólares para entrenar y que exceden un umbral computacional especificado. El objetivo es prevenir el mal uso que podría causar daños críticos, definidos como la muerte o lesiones graves de al menos 100 personas, o daños económicos de 1,000 millones de dólares o más.
Obligaciones de los Desarrolladores
Antes de lanzar un modelo avanzado, un desarrollador debe:
- Implementar protocolos de seguridad y seguridad, incluyendo riesgos creados por usos de terceros del modelo fuera del control del desarrollador.
- Publicar de manera conspicua esos protocolos y enviarlos a la División de Seguridad Nacional y Servicios de Emergencia.
- Implementar salvaguardias para prevenir riesgos no razonables de daño crítico.
Si no se pueden prevenir los riesgos no razonables, la Ley prohíbe el lanzamiento del modelo. La aplicación recae en el Fiscal General, quien puede imponer sanciones civiles de hasta 10 millones de dólares por una violación inicial y hasta 30 millones de dólares por violaciones repetidas.
Un Enfoque Unilateral
La Ley RAISE impone todas las obligaciones a los desarrolladores de modelos avanzados, sin extender deberes a otros actores en la cadena de valor de la IA, como aquellos que ajustan o modifican modelos, los que los integran en sistemas de IA o los usuarios finales. Esto contrasta con la Ley de IA de la UE, que, aunque criticada por su complejidad y altos costos de cumplimiento, distribuye las obligaciones entre múltiples categorías de actores.
El Problema del «Daño Crítico»
El concepto de “riesgo de daño crítico” es igualmente defectuoso. Los modelos avanzados son inherentemente de propósito general; los riesgos que presentan dependen de sus usos posteriores, que varían ampliamente según el sector y el contexto. Sin embargo, la Ley requiere que los desarrolladores evalúen y mitiguen estos riesgos ex ante, en el momento del lanzamiento, cuando tales riesgos son en gran medida especulativos y difíciles de medir.
Conclusión
La Ley RAISE no establece un marco equilibrado para la gobernanza de la IA. Al dirigirse únicamente a los desarrolladores de modelos avanzados y depender de conceptos vagos de “daño crítico”, crea incertidumbre legal y expone a los desarrolladores a enforcement sin una guía clara. En vez de centralizar la responsabilidad en los desarrolladores, sería más efectivo regular toda la cadena de valor para asegurar una distribución justa de responsabilidades.