Nueva York Aprueba Ley Innovadora para la Seguridad de la IA

Nueva York Implementa una Legislación de Seguridad en IA Sin Precedentes

El estado de Nueva York se convierte en el primero en aprobar una ley integral de seguridad en inteligencia artificial, dirigida a los modelos de IA más avanzados. La RAISE Act, que significa Responsable Inteligencia Artificial en la Participación Social, establece estándares obligatorios de transparencia e informes para los principales desarrolladores de IA.

Los legisladores afirman que esta legislación busca equilibrar la seguridad con la innovación, protegiendo a las pequeñas startups de una regulación excesiva.

Detalles de la RAISE Act

La RAISE Act, aprobada el jueves, está diseñada para regular los modelos de IA fronterizos desarrollados por grandes empresas como OpenAI, Google y Anthropic. Estos modelos, entrenados con un inmenso poder de cómputo y capaces de tener consecuencias de gran alcance, han suscitado serias preocupaciones de seguridad entre investigadores y responsables políticos.

La ley requiere que los desarrolladores de sistemas de IA poderosos presenten evaluaciones detalladas de seguridad y seguridad. Esto incluye informes sobre posibles malos usos, vulnerabilidades técnicas e incidentes que involucren comportamientos inseguros o violaciones de datos. Las empresas que no cumplan con estos requisitos podrían enfrentar penalizaciones civiles de hasta 30 millones de dólares.

Guardrails Sin Aplastar la Innovación

El senador de Nueva York, Andrew Gounardes, uno de los co-patrocinadores de la ley, afirmó que la urgencia de legislar sobre la seguridad en IA nunca ha sido mayor.

“La ventana para establecer guardrails se está cerrando rápidamente dado lo rápido que evoluciona esta tecnología”, explicó, citando advertencias de destacados expertos en IA como Geoffrey Hinton y Yoshua Bengio, quienes han apoyado la medida.

Lo que hace que la RAISE Act sea distinta de esfuerzos anteriores, como el SB 1047 de California, es su enfoque específico. La ley está diseñada para aplicarse únicamente a empresas cuyos modelos de IA hayan sido entrenados con más de 100 millones de dólares en recursos de computación y estén disponibles para los residentes de Nueva York. Gounardes enfatizó que las pequeñas startups y instituciones académicas no son el foco, rebatando las críticas de que la ley sofoca la innovación.

Reacciones de Silicon Valley

A pesar de su alcance limitado, la RAISE Act ha enfrentado una fuerte resistencia por parte de inversores y empresas tecnológicas. Anjney Midha, socio general de Andreessen Horowitz, desestimó la legislación como “otro estúpido, estúpido proyecto de ley sobre IA a nivel estatal.” Los críticos argumentan que imponer cargas de cumplimiento a nivel estatal podría llevar a las grandes empresas a retener sus productos de IA más avanzados de los residentes de Nueva York.

Sin embargo, el asambleísta Alex Bores, otro co-patrocinador, rechazó esa posibilidad, afirmando que el incentivo económico para permanecer en Nueva York supera con creces la molestia.

“No quiero subestimar la mezquindad política que podría ocurrir, pero tengo mucha confianza en que no hay razón económica para que [las empresas de IA] no hagan disponibles sus modelos en Nueva York”, dijo.

Estableciendo un Precedente Nacional

Si la RAISE Act es firmada por la gobernadora Kathy Hochul, marcará la primera vez que EE. UU. implemente requisitos de seguridad y transparencia legalmente vinculantes específicamente diseñados para sistemas de IA fronterizos. Esto colocaría a Nueva York por delante de los esfuerzos federales y de otros estados en la carrera por establecer estándares éticos para el despliegue de IA.

Al mismo tiempo, Nueva York también está explorando legislación paralela que aborde la discriminación algorítmica y la protección del consumidor. La propuesta NY AI Act y la Protection Act buscan regular el uso de la IA en decisiones de gran impacto como el empleo y el crédito, exigiendo auditorías, derechos de exclusión y supervisión humana.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...