Nueva legislación en Nueva York exige protocolos de seguridad para IA avanzada

El Proyecto de Ley RAISE de Nueva York: Regulación de la IA Avanzada

En un movimiento histórico, Nueva York está a punto de introducir una de las primeras leyes que regulan los modelos de inteligencia artificial (IA) avanzados en los Estados Unidos. La Ley de Seguridad y Educación en IA Responsable (RAISE, por sus siglas en inglés) ha sido aprobada por el Senado estatal y ahora espera la firma de la gobernadora Kathy Hochul. Este proyecto de ley tiene como objetivo establecer un marco regulatorio para los desarrolladores de IA de gran escala, obligándolos a implementar protocolos de seguridad antes de hacer públicos sus modelos avanzados.

Requisitos para los Desarrolladores de IA

Si se promulga, la ley exigirá a desarrolladores importantes como OpenAI, Google y Anthropic que publiquen protocolos de seguridad y evaluaciones de riesgos. Estos poderosos sistemas solo estarán disponibles al público en Nueva York si cumplen con estos requisitos. Además, la ley obligará a reportar incidentes graves, como el robo de modelos o comportamientos peligrosos de la IA. Las penalizaciones civiles por violaciones podrían llegar hasta los 30 millones de dólares.

Enfoque en los Grandes Jugadores de IA

El senador demócrata Andrew Gounardes, uno de los patrocinadores del proyecto de ley, enfatizó que la ley está dirigida únicamente a las grandes empresas que gastan más de 100 millones de dólares en el entrenamiento de modelos. Las startups y las instituciones académicas estarán exentas de este marco regulatorio. El objetivo de Gounardes es equilibrar la seguridad y la innovación, advirtiendo que «la ventana para implementar salvaguardias se está cerrando rápidamente».

Críticas de la Industria Tecnológica

A pesar de estas limitaciones, la propuesta ha recibido críticas de Silicon Valley. Anjney Midha, socio de Andreessen Horowitz, calificó el proyecto de ley como «tonto», advirtiendo que podría poner a EE. UU. en una desventaja competitiva. Jack Clark, cofundador de Anthropic, también expresó preocupaciones sobre el impacto potencial en las empresas más pequeñas. Gounardes rechazó estos argumentos, subrayando que la ley está deliberadamente dirigida solo a los jugadores más grandes del sector.

Posible Prohibición Federal

Recientemente, la Cámara de Representantes de EE. UU. aprobó un paquete legislativo que impondría una prohibición de diez años sobre las regulaciones estatales de IA. Si la llamada ley «One Big, Beautiful» también es aprobada por el Senado, leyes como la RAISE podrían quedar bloqueadas en el futuro. Los partidarios de la moratoria, incluidos grandes empresas tecnológicas y think tanks de libre mercado, argumentan que son necesarias reglas federales unificadas. Sin embargo, los críticos advierten que esto podría perjudicar las protecciones al consumidor y favorecer los intereses de la industria.

Resumen

  • Nueva York está a punto de promulgar la Ley RAISE, que exigirá a grandes desarrolladores de IA publicar protocolos de seguridad y realizar evaluaciones de riesgos antes de lanzar modelos avanzados, con penalizaciones civiles de hasta 30 millones de dólares por violaciones.
  • El proyecto de ley, que excluye a startups y a la investigación académica, está diseñado para evitar errores vistos en otros estados, centrándose solo en empresas que gastan más de 100 millones en entrenamiento, y no requiere interruptores de seguridad o responsabilidad por modelos modificados.
  • La ley enfrenta críticas de figuras de la industria tecnológica que temen que pueda sofocar la competencia o la innovación, mientras que un proyecto de ley federal pendiente podría anular tales regulaciones estatales, planteando preocupaciones sobre el equilibrio entre reglas unificadas y protecciones al consumidor.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...