Nueva legislación en Nueva York exige protocolos de seguridad para IA avanzada

El Proyecto de Ley RAISE de Nueva York: Regulación de la IA Avanzada

En un movimiento histórico, Nueva York está a punto de introducir una de las primeras leyes que regulan los modelos de inteligencia artificial (IA) avanzados en los Estados Unidos. La Ley de Seguridad y Educación en IA Responsable (RAISE, por sus siglas en inglés) ha sido aprobada por el Senado estatal y ahora espera la firma de la gobernadora Kathy Hochul. Este proyecto de ley tiene como objetivo establecer un marco regulatorio para los desarrolladores de IA de gran escala, obligándolos a implementar protocolos de seguridad antes de hacer públicos sus modelos avanzados.

Requisitos para los Desarrolladores de IA

Si se promulga, la ley exigirá a desarrolladores importantes como OpenAI, Google y Anthropic que publiquen protocolos de seguridad y evaluaciones de riesgos. Estos poderosos sistemas solo estarán disponibles al público en Nueva York si cumplen con estos requisitos. Además, la ley obligará a reportar incidentes graves, como el robo de modelos o comportamientos peligrosos de la IA. Las penalizaciones civiles por violaciones podrían llegar hasta los 30 millones de dólares.

Enfoque en los Grandes Jugadores de IA

El senador demócrata Andrew Gounardes, uno de los patrocinadores del proyecto de ley, enfatizó que la ley está dirigida únicamente a las grandes empresas que gastan más de 100 millones de dólares en el entrenamiento de modelos. Las startups y las instituciones académicas estarán exentas de este marco regulatorio. El objetivo de Gounardes es equilibrar la seguridad y la innovación, advirtiendo que «la ventana para implementar salvaguardias se está cerrando rápidamente».

Críticas de la Industria Tecnológica

A pesar de estas limitaciones, la propuesta ha recibido críticas de Silicon Valley. Anjney Midha, socio de Andreessen Horowitz, calificó el proyecto de ley como «tonto», advirtiendo que podría poner a EE. UU. en una desventaja competitiva. Jack Clark, cofundador de Anthropic, también expresó preocupaciones sobre el impacto potencial en las empresas más pequeñas. Gounardes rechazó estos argumentos, subrayando que la ley está deliberadamente dirigida solo a los jugadores más grandes del sector.

Posible Prohibición Federal

Recientemente, la Cámara de Representantes de EE. UU. aprobó un paquete legislativo que impondría una prohibición de diez años sobre las regulaciones estatales de IA. Si la llamada ley «One Big, Beautiful» también es aprobada por el Senado, leyes como la RAISE podrían quedar bloqueadas en el futuro. Los partidarios de la moratoria, incluidos grandes empresas tecnológicas y think tanks de libre mercado, argumentan que son necesarias reglas federales unificadas. Sin embargo, los críticos advierten que esto podría perjudicar las protecciones al consumidor y favorecer los intereses de la industria.

Resumen

  • Nueva York está a punto de promulgar la Ley RAISE, que exigirá a grandes desarrolladores de IA publicar protocolos de seguridad y realizar evaluaciones de riesgos antes de lanzar modelos avanzados, con penalizaciones civiles de hasta 30 millones de dólares por violaciones.
  • El proyecto de ley, que excluye a startups y a la investigación académica, está diseñado para evitar errores vistos en otros estados, centrándose solo en empresas que gastan más de 100 millones en entrenamiento, y no requiere interruptores de seguridad o responsabilidad por modelos modificados.
  • La ley enfrenta críticas de figuras de la industria tecnológica que temen que pueda sofocar la competencia o la innovación, mientras que un proyecto de ley federal pendiente podría anular tales regulaciones estatales, planteando preocupaciones sobre el equilibrio entre reglas unificadas y protecciones al consumidor.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...