Nueva York Aprueba Ley Innovadora para la Seguridad de la IA

Nueva York Implementa una Legislación de Seguridad en IA Sin Precedentes

El estado de Nueva York se convierte en el primero en aprobar una ley integral de seguridad en inteligencia artificial, dirigida a los modelos de IA más avanzados. La RAISE Act, que significa Responsable Inteligencia Artificial en la Participación Social, establece estándares obligatorios de transparencia e informes para los principales desarrolladores de IA.

Los legisladores afirman que esta legislación busca equilibrar la seguridad con la innovación, protegiendo a las pequeñas startups de una regulación excesiva.

Detalles de la RAISE Act

La RAISE Act, aprobada el jueves, está diseñada para regular los modelos de IA fronterizos desarrollados por grandes empresas como OpenAI, Google y Anthropic. Estos modelos, entrenados con un inmenso poder de cómputo y capaces de tener consecuencias de gran alcance, han suscitado serias preocupaciones de seguridad entre investigadores y responsables políticos.

La ley requiere que los desarrolladores de sistemas de IA poderosos presenten evaluaciones detalladas de seguridad y seguridad. Esto incluye informes sobre posibles malos usos, vulnerabilidades técnicas e incidentes que involucren comportamientos inseguros o violaciones de datos. Las empresas que no cumplan con estos requisitos podrían enfrentar penalizaciones civiles de hasta 30 millones de dólares.

Guardrails Sin Aplastar la Innovación

El senador de Nueva York, Andrew Gounardes, uno de los co-patrocinadores de la ley, afirmó que la urgencia de legislar sobre la seguridad en IA nunca ha sido mayor.

“La ventana para establecer guardrails se está cerrando rápidamente dado lo rápido que evoluciona esta tecnología”, explicó, citando advertencias de destacados expertos en IA como Geoffrey Hinton y Yoshua Bengio, quienes han apoyado la medida.

Lo que hace que la RAISE Act sea distinta de esfuerzos anteriores, como el SB 1047 de California, es su enfoque específico. La ley está diseñada para aplicarse únicamente a empresas cuyos modelos de IA hayan sido entrenados con más de 100 millones de dólares en recursos de computación y estén disponibles para los residentes de Nueva York. Gounardes enfatizó que las pequeñas startups y instituciones académicas no son el foco, rebatando las críticas de que la ley sofoca la innovación.

Reacciones de Silicon Valley

A pesar de su alcance limitado, la RAISE Act ha enfrentado una fuerte resistencia por parte de inversores y empresas tecnológicas. Anjney Midha, socio general de Andreessen Horowitz, desestimó la legislación como “otro estúpido, estúpido proyecto de ley sobre IA a nivel estatal.” Los críticos argumentan que imponer cargas de cumplimiento a nivel estatal podría llevar a las grandes empresas a retener sus productos de IA más avanzados de los residentes de Nueva York.

Sin embargo, el asambleísta Alex Bores, otro co-patrocinador, rechazó esa posibilidad, afirmando que el incentivo económico para permanecer en Nueva York supera con creces la molestia.

“No quiero subestimar la mezquindad política que podría ocurrir, pero tengo mucha confianza en que no hay razón económica para que [las empresas de IA] no hagan disponibles sus modelos en Nueva York”, dijo.

Estableciendo un Precedente Nacional

Si la RAISE Act es firmada por la gobernadora Kathy Hochul, marcará la primera vez que EE. UU. implemente requisitos de seguridad y transparencia legalmente vinculantes específicamente diseñados para sistemas de IA fronterizos. Esto colocaría a Nueva York por delante de los esfuerzos federales y de otros estados en la carrera por establecer estándares éticos para el despliegue de IA.

Al mismo tiempo, Nueva York también está explorando legislación paralela que aborde la discriminación algorítmica y la protección del consumidor. La propuesta NY AI Act y la Protection Act buscan regular el uso de la IA en decisiones de gran impacto como el empleo y el crédito, exigiendo auditorías, derechos de exclusión y supervisión humana.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...