Proyecto de Ley de Seguridad en IA Llega al Escritorio del Gobernador de Nueva York

Proyecto de Ley de Regulación de Seguridad de IA en Nueva York

El proyecto de ley RAISE, centrado en la seguridad de la inteligencia artificial (IA), ha sido aprobado por los legisladores de Nueva York y se dirige al escritorio de la gobernadora Kathy Hochul. Este proyecto de ley representa un intento integral de regular la seguridad de la IA a nivel estatal.

Contexto y Motivación

El interés por la regulación de la IA ha resurgido, especialmente después de la aprobación de la ley SB 1047 en California en agosto. Sin embargo, la incertidumbre persiste sobre si el proyecto de ley de Nueva York tendrá un destino diferente y no será vetado por la gobernadora.

Principales Provisions del Proyecto de Ley

El RAISE Act, introducido por el senador demócrata Andrew Gounardes, impone a los desarrolladores de modelos de lenguaje grande la obligación de crear y publicar protocolos de seguridad y evaluaciones de riesgo. Además, la ley requiere que las empresas informen si sus modelos de IA son robados por actores maliciosos o si estos modelos presentan comportamientos peligrosos.

Las sanciones por incumplimiento son severas, otorgando al fiscal general de Nueva York la autoridad para imponer multas civiles de hasta 30 millones de dólares a las empresas que no cumplan con estas regulaciones.

Requisitos de Aplicación

Las nuevas reglas se aplicarán únicamente a aquellas empresas que utilicen más de 100 millones de dólares en recursos de computación para entrenar sus modelos. Esto sugiere un enfoque en las grandes corporaciones de tecnología, en lugar de las startups más pequeñas.

Reacciones de la Industria

La reacción de los capitalistas de riesgo ha sido negativa. Se argumenta que el proyecto de ley es otro ejemplo de regulación que podría obstaculizar el desarrollo de la IA en los Estados Unidos, especialmente en un momento en que otros países avanzan rápidamente en esta tecnología.

Un ejemplo de esta preocupación se manifiesta en las palabras de un socio de Andreessen Horowitz, quien calificó el RAISE Act como un «proyecto de ley estatal de IA estúpido» que perjudicará a la industria estadounidense.

Comparación con la Ley de California

Preocupaciones similares sobre la inhibición del desarrollo de la IA llevaron a la muerte del SB 1047 en California hace ocho meses. Este proyecto de ley requería que los desarrolladores de modelos de IA incluyeran un «interruptor de emergencia» y la posibilidad de que estas empresas fueran responsables civilmente por daños causados por sus modelos.

Algunos dentro de la industria, como el cofundador de Anthropic, han expresado su preocupación de que el RAISE Act sea demasiado amplio y que las altas sanciones por incumplimiento podrían afectar desproporcionadamente a las startups más pequeñas.

Propuestas Futuras

Se sugiere que un estándar de transparencia federal sería ideal, con el fin de establecer una normativa única para el país en lugar de un mosaico de leyes estatales, lo que podría generar confusión y dificultad para las empresas que operan en múltiples jurisdicciones.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...