Nueva York Aprueba Ley Innovadora para la Seguridad de la IA

Nueva York Implementa una Legislación de Seguridad en IA Sin Precedentes

El estado de Nueva York se convierte en el primero en aprobar una ley integral de seguridad en inteligencia artificial, dirigida a los modelos de IA más avanzados. La RAISE Act, que significa Responsable Inteligencia Artificial en la Participación Social, establece estándares obligatorios de transparencia e informes para los principales desarrolladores de IA.

Los legisladores afirman que esta legislación busca equilibrar la seguridad con la innovación, protegiendo a las pequeñas startups de una regulación excesiva.

Detalles de la RAISE Act

La RAISE Act, aprobada el jueves, está diseñada para regular los modelos de IA fronterizos desarrollados por grandes empresas como OpenAI, Google y Anthropic. Estos modelos, entrenados con un inmenso poder de cómputo y capaces de tener consecuencias de gran alcance, han suscitado serias preocupaciones de seguridad entre investigadores y responsables políticos.

La ley requiere que los desarrolladores de sistemas de IA poderosos presenten evaluaciones detalladas de seguridad y seguridad. Esto incluye informes sobre posibles malos usos, vulnerabilidades técnicas e incidentes que involucren comportamientos inseguros o violaciones de datos. Las empresas que no cumplan con estos requisitos podrían enfrentar penalizaciones civiles de hasta 30 millones de dólares.

Guardrails Sin Aplastar la Innovación

El senador de Nueva York, Andrew Gounardes, uno de los co-patrocinadores de la ley, afirmó que la urgencia de legislar sobre la seguridad en IA nunca ha sido mayor.

“La ventana para establecer guardrails se está cerrando rápidamente dado lo rápido que evoluciona esta tecnología”, explicó, citando advertencias de destacados expertos en IA como Geoffrey Hinton y Yoshua Bengio, quienes han apoyado la medida.

Lo que hace que la RAISE Act sea distinta de esfuerzos anteriores, como el SB 1047 de California, es su enfoque específico. La ley está diseñada para aplicarse únicamente a empresas cuyos modelos de IA hayan sido entrenados con más de 100 millones de dólares en recursos de computación y estén disponibles para los residentes de Nueva York. Gounardes enfatizó que las pequeñas startups y instituciones académicas no son el foco, rebatando las críticas de que la ley sofoca la innovación.

Reacciones de Silicon Valley

A pesar de su alcance limitado, la RAISE Act ha enfrentado una fuerte resistencia por parte de inversores y empresas tecnológicas. Anjney Midha, socio general de Andreessen Horowitz, desestimó la legislación como “otro estúpido, estúpido proyecto de ley sobre IA a nivel estatal.” Los críticos argumentan que imponer cargas de cumplimiento a nivel estatal podría llevar a las grandes empresas a retener sus productos de IA más avanzados de los residentes de Nueva York.

Sin embargo, el asambleísta Alex Bores, otro co-patrocinador, rechazó esa posibilidad, afirmando que el incentivo económico para permanecer en Nueva York supera con creces la molestia.

“No quiero subestimar la mezquindad política que podría ocurrir, pero tengo mucha confianza en que no hay razón económica para que [las empresas de IA] no hagan disponibles sus modelos en Nueva York”, dijo.

Estableciendo un Precedente Nacional

Si la RAISE Act es firmada por la gobernadora Kathy Hochul, marcará la primera vez que EE. UU. implemente requisitos de seguridad y transparencia legalmente vinculantes específicamente diseñados para sistemas de IA fronterizos. Esto colocaría a Nueva York por delante de los esfuerzos federales y de otros estados en la carrera por establecer estándares éticos para el despliegue de IA.

Al mismo tiempo, Nueva York también está explorando legislación paralela que aborde la discriminación algorítmica y la protección del consumidor. La propuesta NY AI Act y la Protection Act buscan regular el uso de la IA en decisiones de gran impacto como el empleo y el crédito, exigiendo auditorías, derechos de exclusión y supervisión humana.

More Insights

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...

Gobernanza Ética e Inclusiva de la IA en Indonesia

El Ministerio de Comunicación y Digital de Indonesia ha reafirmado su compromiso de incorporar principios éticos e inclusivos en sus políticas de inteligencia artificial (IA). El Vice Ministro Nezar...

Texas y la Nueva Ley de Gobernanza de IA Responsable

El 22 de junio de 2025, el gobernador Abbott firmó la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas, convirtiendo a Texas en el tercer estado de EE. UU. en adoptar una ley integral...

La IA como Ventaja Competitiva en Cumplimiento Normativo

La inteligencia artificial está ayudando a las empresas a cumplir con una compleja gama de regulaciones en constante evolución, brindándoles una ventaja competitiva. Las herramientas basadas en IA...