Ley de Nueva York busca regular la inteligencia artificial ante riesgos críticos

Los Legisladores de Nueva York Buscan Evitar el ‘Daño Crítico’ por IA

Los legisladores del estado de Nueva York han propuesto nuevas requisitos de seguridad para los modelos de inteligencia artificial más avanzados del mundo. Sin embargo, los legisladores federales están amenazando con anular estas nuevas reglas antes de que se implementen.

Detalles del Proyecto de Ley

La Legislatura estatal aprobó un proyecto de ley la semana pasada que obligaría a los desarrolladores de los modelos de IA más grandes y avanzados a elaborar planes de seguridad integrales que detallen los pasos que han tomado para reducir el riesgo de causar daños graves.

La medida, conocida como el RAISE Act (Ley de Seguridad y Educación Responsable de la IA), también requeriría que los desarrolladores informen al estado sobre incidentes de seguridad importantes, como un modelo que actúe por su cuenta sin que un usuario lo haya solicitado. Además, el proyecto de ley haría que los desarrolladores sean responsables de ciertas violaciones de la ley, permitiendo al fiscal general del estado buscar multas civiles de hasta decenas de millones de dólares.

Reacciones de la Industria

Las empresas tecnológicas y sus organizaciones comerciales ya están presionando a la gobernadora Kathy Hochul para que vete la medida, argumentando que podría ahogar la innovación en un campo transformador. Mientras tanto, el Congreso está considerando prohibir a los estados regular la IA durante los próximos diez años, un movimiento que podría efectivamente matar la medida antes de que tenga la oportunidad de entrar en vigor.

Sin embargo, los partidarios del proyecto de ley instan a Hochul a firmarlo, argumentando que los federales no se están moviendo lo suficientemente rápido para regular una industria de IA que avanza rápidamente y tiene un potencial enorme para imponer cambios en el mundo.

Implementación y Revisión de Protocolos de Seguridad

El RAISE Act se aplicaría a los desarrolladores de modelos de IA de frontera, aquellos que son los más grandes y avanzados en el campo, desarrollados, desplegados o destinados a operar en Nueva York. Los desarrolladores estarían obligados a implementar sus protocolos de seguridad antes de ser desplegados y serían objeto de una revisión de terceros, cuyos resultados estarían disponibles para el Departamento de Seguridad Nacional y Servicios de Emergencia del estado, así como para la Oficina del Fiscal General del estado.

El proyecto de ley exige que los protocolos de seguridad estén diseñados para reducir la posibilidad de daños críticos, que son incidentes causados o materialmente habilitados por el modelo de IA del desarrollador, resultando en 100 o más lesiones o muertes, o más de $1,000 millones en daños. También se requiere que los desarrolladores consideren la posibilidad de que la IA conduzca a la creación de armas químicas, biológicas o incluso nucleares.

Consecuencias de las Violaciones

El fiscal general podría buscar multas de hasta $10 millones por una primera violación, y hasta $30 millones por cada violación subsecuente.

Intentos Previos de Regulación en California

Los legisladores de California realizaron un intento previo de regular a los desarrolladores de IA de manera similar el año pasado, pero la medida enfrentó una oposición significativa y el gobernador Gavin Newsom finalmente la vetó. Grupos comerciales como Tech:NYC, que incluye a Google y Meta, se oponen al RAISE Act, argumentando que la regulación debería basarse en usos específicos en lugar de un enfoque general.

Conclusión

La gobernadora Hochul ha sido un importante apoyo de la iniciativa Empire AI, un consorcio público-privado dedicado a investigar y desarrollar inteligencia artificial. Mientras tanto, el Congreso continúa debatiendo si debería prohibir temporalmente a los estados regular la IA por completo.

La situación actual resalta la creciente tensión entre la regulación estatal y federal en el ámbito de la inteligencia artificial, un tema que probablemente seguirá siendo relevante en los próximos años.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...