Ley de Nueva York busca regular la inteligencia artificial ante riesgos críticos

Los Legisladores de Nueva York Buscan Evitar el ‘Daño Crítico’ por IA

Los legisladores del estado de Nueva York han propuesto nuevas requisitos de seguridad para los modelos de inteligencia artificial más avanzados del mundo. Sin embargo, los legisladores federales están amenazando con anular estas nuevas reglas antes de que se implementen.

Detalles del Proyecto de Ley

La Legislatura estatal aprobó un proyecto de ley la semana pasada que obligaría a los desarrolladores de los modelos de IA más grandes y avanzados a elaborar planes de seguridad integrales que detallen los pasos que han tomado para reducir el riesgo de causar daños graves.

La medida, conocida como el RAISE Act (Ley de Seguridad y Educación Responsable de la IA), también requeriría que los desarrolladores informen al estado sobre incidentes de seguridad importantes, como un modelo que actúe por su cuenta sin que un usuario lo haya solicitado. Además, el proyecto de ley haría que los desarrolladores sean responsables de ciertas violaciones de la ley, permitiendo al fiscal general del estado buscar multas civiles de hasta decenas de millones de dólares.

Reacciones de la Industria

Las empresas tecnológicas y sus organizaciones comerciales ya están presionando a la gobernadora Kathy Hochul para que vete la medida, argumentando que podría ahogar la innovación en un campo transformador. Mientras tanto, el Congreso está considerando prohibir a los estados regular la IA durante los próximos diez años, un movimiento que podría efectivamente matar la medida antes de que tenga la oportunidad de entrar en vigor.

Sin embargo, los partidarios del proyecto de ley instan a Hochul a firmarlo, argumentando que los federales no se están moviendo lo suficientemente rápido para regular una industria de IA que avanza rápidamente y tiene un potencial enorme para imponer cambios en el mundo.

Implementación y Revisión de Protocolos de Seguridad

El RAISE Act se aplicaría a los desarrolladores de modelos de IA de frontera, aquellos que son los más grandes y avanzados en el campo, desarrollados, desplegados o destinados a operar en Nueva York. Los desarrolladores estarían obligados a implementar sus protocolos de seguridad antes de ser desplegados y serían objeto de una revisión de terceros, cuyos resultados estarían disponibles para el Departamento de Seguridad Nacional y Servicios de Emergencia del estado, así como para la Oficina del Fiscal General del estado.

El proyecto de ley exige que los protocolos de seguridad estén diseñados para reducir la posibilidad de daños críticos, que son incidentes causados o materialmente habilitados por el modelo de IA del desarrollador, resultando en 100 o más lesiones o muertes, o más de $1,000 millones en daños. También se requiere que los desarrolladores consideren la posibilidad de que la IA conduzca a la creación de armas químicas, biológicas o incluso nucleares.

Consecuencias de las Violaciones

El fiscal general podría buscar multas de hasta $10 millones por una primera violación, y hasta $30 millones por cada violación subsecuente.

Intentos Previos de Regulación en California

Los legisladores de California realizaron un intento previo de regular a los desarrolladores de IA de manera similar el año pasado, pero la medida enfrentó una oposición significativa y el gobernador Gavin Newsom finalmente la vetó. Grupos comerciales como Tech:NYC, que incluye a Google y Meta, se oponen al RAISE Act, argumentando que la regulación debería basarse en usos específicos en lugar de un enfoque general.

Conclusión

La gobernadora Hochul ha sido un importante apoyo de la iniciativa Empire AI, un consorcio público-privado dedicado a investigar y desarrollar inteligencia artificial. Mientras tanto, el Congreso continúa debatiendo si debería prohibir temporalmente a los estados regular la IA por completo.

La situación actual resalta la creciente tensión entre la regulación estatal y federal en el ámbito de la inteligencia artificial, un tema que probablemente seguirá siendo relevante en los próximos años.

More Insights

Nueva Ley de Gobernanza de IA en Filipinas: Un Paso Hacia el Futuro Digital

El representante Brian Poe ha introducido la Ley de Gobernanza de Inteligencia Artificial de Filipinas, que busca establecer directrices y regulaciones para el uso seguro y efectivo de la IA en...

Demanda Creciente de IA Generativa en Certificación de Riesgos y Cumplimiento

En 2025, las organizaciones de todo el mundo se enfrentan a paisajes regulatorios en expansión y a amenazas crecientes de delitos financieros y cibernéticos. La IA generativa se presenta como un socio...

El Auge de la Regulación: Lecciones del Caso Grok en Turquía

El incidente de julio de 2025, que involucra la investigación de Turquía sobre Grok, destaca los riesgos regulatorios que enfrentan las plataformas impulsadas por IA en mercados políticamente...

El Auge de la Regulación: Lecciones del Caso Grok en Turquía

El incidente de julio de 2025, que involucra la investigación de Turquía sobre Grok, destaca los riesgos regulatorios que enfrentan las plataformas impulsadas por IA en mercados políticamente...

IA Responsable y Preparación Regulatoria: Claves Esenciales

La inteligencia artificial y las regulaciones están avanzando rápidamente, lo que genera demandas de cumplimiento complejas y cambiantes a nivel global, nacional y local. Adoptar prácticas de IA...

Grupos de consumidores advierten sobre retrocesos en la regulación de la IA

Más de 50 organizaciones advirtieron sobre los riesgos de retrasar la implementación de la Ley de IA, indicando que esto socavaría los mecanismos de responsabilidad clave. También expresaron su...