Nueva legislación en Nueva York exige protocolos de seguridad para IA avanzada

El Proyecto de Ley RAISE de Nueva York: Regulación de la IA Avanzada

En un movimiento histórico, Nueva York está a punto de introducir una de las primeras leyes que regulan los modelos de inteligencia artificial (IA) avanzados en los Estados Unidos. La Ley de Seguridad y Educación en IA Responsable (RAISE, por sus siglas en inglés) ha sido aprobada por el Senado estatal y ahora espera la firma de la gobernadora Kathy Hochul. Este proyecto de ley tiene como objetivo establecer un marco regulatorio para los desarrolladores de IA de gran escala, obligándolos a implementar protocolos de seguridad antes de hacer públicos sus modelos avanzados.

Requisitos para los Desarrolladores de IA

Si se promulga, la ley exigirá a desarrolladores importantes como OpenAI, Google y Anthropic que publiquen protocolos de seguridad y evaluaciones de riesgos. Estos poderosos sistemas solo estarán disponibles al público en Nueva York si cumplen con estos requisitos. Además, la ley obligará a reportar incidentes graves, como el robo de modelos o comportamientos peligrosos de la IA. Las penalizaciones civiles por violaciones podrían llegar hasta los 30 millones de dólares.

Enfoque en los Grandes Jugadores de IA

El senador demócrata Andrew Gounardes, uno de los patrocinadores del proyecto de ley, enfatizó que la ley está dirigida únicamente a las grandes empresas que gastan más de 100 millones de dólares en el entrenamiento de modelos. Las startups y las instituciones académicas estarán exentas de este marco regulatorio. El objetivo de Gounardes es equilibrar la seguridad y la innovación, advirtiendo que «la ventana para implementar salvaguardias se está cerrando rápidamente».

Críticas de la Industria Tecnológica

A pesar de estas limitaciones, la propuesta ha recibido críticas de Silicon Valley. Anjney Midha, socio de Andreessen Horowitz, calificó el proyecto de ley como «tonto», advirtiendo que podría poner a EE. UU. en una desventaja competitiva. Jack Clark, cofundador de Anthropic, también expresó preocupaciones sobre el impacto potencial en las empresas más pequeñas. Gounardes rechazó estos argumentos, subrayando que la ley está deliberadamente dirigida solo a los jugadores más grandes del sector.

Posible Prohibición Federal

Recientemente, la Cámara de Representantes de EE. UU. aprobó un paquete legislativo que impondría una prohibición de diez años sobre las regulaciones estatales de IA. Si la llamada ley «One Big, Beautiful» también es aprobada por el Senado, leyes como la RAISE podrían quedar bloqueadas en el futuro. Los partidarios de la moratoria, incluidos grandes empresas tecnológicas y think tanks de libre mercado, argumentan que son necesarias reglas federales unificadas. Sin embargo, los críticos advierten que esto podría perjudicar las protecciones al consumidor y favorecer los intereses de la industria.

Resumen

  • Nueva York está a punto de promulgar la Ley RAISE, que exigirá a grandes desarrolladores de IA publicar protocolos de seguridad y realizar evaluaciones de riesgos antes de lanzar modelos avanzados, con penalizaciones civiles de hasta 30 millones de dólares por violaciones.
  • El proyecto de ley, que excluye a startups y a la investigación académica, está diseñado para evitar errores vistos en otros estados, centrándose solo en empresas que gastan más de 100 millones en entrenamiento, y no requiere interruptores de seguridad o responsabilidad por modelos modificados.
  • La ley enfrenta críticas de figuras de la industria tecnológica que temen que pueda sofocar la competencia o la innovación, mientras que un proyecto de ley federal pendiente podría anular tales regulaciones estatales, planteando preocupaciones sobre el equilibrio entre reglas unificadas y protecciones al consumidor.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...