Nueva York impulsa la ley de transparencia en inteligencia artificial

Avances en la Ley de IA de Nueva York

El estado de Nueva York ha tomado un paso significativo hacia convertirse en el primero en Estados Unidos en establecer estándares de transparencia legalmente obligatorios para los sistemas de inteligencia artificial (IA) de frontera. La Ley de Seguridad y Educación de IA Responsable (RAISE Act), que tiene como objetivo prevenir desastres impulsados por IA mientras equilibra las preocupaciones de innovación que llevaron al fracaso de esfuerzos similares en otros estados, fue aprobada por ambas cámaras de la Legislatura del Estado de Nueva York en junio de 2025, y ahora se dirige al escritorio de la Gobernadora Kathy Hochul, quien podría firmar la ley, devolverla para enmiendas o vetarla por completo.

Antecedentes y Disposiciones Clave

La RAISE Act surgió de las lecciones aprendidas de la fallida SB 1047 de California, que fue finalmente vetada por el Gobernador Gavin Newsom en septiembre de 2024. La RAISE Act se dirige solo a los sistemas de IA más potentes, aplicándose específicamente a las empresas cuyos modelos de IA cumplan con ambos criterios:

  • Umbral de Costo de Entrenamiento: Los modelos de IA fueron entrenados utilizando más de 100 millones de dólares en recursos computacionales.
  • Alcance Geográfico: Los modelos están disponibles para los residentes de Nueva York.

Este alcance limitado excluye deliberadamente a empresas más pequeñas, startups e investigadores académicos, abordando críticas clave a la SB 1047 de California.

Requisitos Fundamentales

La legislación establece cuatro obligaciones principales para las empresas cubiertas:

  1. Protocolos de Seguridad y Protección: Se requiere que las empresas de IA más grandes publiquen protocolos de seguridad y evaluaciones de riesgos. Estos protocolos cubren riesgos severos, como la asistencia en la creación de armas biológicas o la realización de actividades criminales automatizadas.
  2. Informe de Incidentes: La ley también requiere que los laboratorios de IA informen sobre incidentes de seguridad, como comportamientos preocupantes de modelos de IA o el robo de un modelo de IA, si ocurren. Esto incluye escenarios en los que modelos de IA peligrosos son comprometidos por actores maliciosos o exhiben comportamientos autónomos preocupantes.
  3. Evaluación y Mitigación de Riesgos: Las empresas deben realizar evaluaciones de riesgos exhaustivas que cubran escenarios catastróficos, incluyendo:
    • Muertes o lesiones de más de 100 personas
    • Daños económicos que superen los 1,000 millones de dólares
    • Asistencia en la creación de armas biológicas o químicas
    • Facilitación de actividades criminales a gran escala
  4. Auditoría de Terceros: Realizar auditorías de terceros para garantizar el cumplimiento de la ley.

Mecanismos de Aplicación

Si las empresas tecnológicas no cumplen con estos estándares, la RAISE Act otorga al fiscal general de Nueva York la facultad de imponer sanciones civiles de hasta 30 millones de dólares. Esta estructura de aplicación proporciona un poder disuasorio significativo mientras evita la responsabilidad penal.

Provisiones de Puerto Seguro

La Ley incluye importantes protecciones para el desarrollo responsable, permitiendo a las empresas realizar «redacciones apropiadas» en los protocolos de seguridad cuando sea necesario para:

  • Proteger la seguridad pública
  • Proteger secretos comerciales
  • Mantener información confidencial según lo exige la ley
  • Proteger la privacidad de empleados o clientes

Diferencias Clave con la SB 1047 de California

Para los modelos de IA de frontera, la RAISE Act de Nueva York parece diseñada para abordar críticas específicas de la fallida SB 1047 de California:

  • Sin Requisito de «Kill Switch»: La RAISE Act no exige que los desarrolladores de modelos de IA incluyan un «kill switch» en sus modelos.
  • Sin Responsabilidad Post-Entrenamiento: No responsabiliza a las empresas que post-entrenan modelos de IA de frontera por daños críticos.
  • Exenciones Académicas: Universidades e instituciones de investigación están excluidas de la cobertura.
  • Protección para Startups: El alto umbral de costo computacional asegura que las empresas más pequeñas no se vean afectadas.

Reglamento Regulador Más Amplio

La RAISE Act representa un debate más amplio sobre la regulación de IA en Estados Unidos. Consideraciones clave incluyen:

  • Fragmentación Regulatoria: El potencial de un mosaico de regulaciones estatales que crea desafíos de cumplimiento.
  • Preclusión Federal: Los esfuerzos en curso del Congreso para establecer estándares nacionales uniformes.
  • Competitividad Internacional: Equilibrar las preocupaciones de seguridad con el mantenimiento del liderazgo de EE. UU. en el desarrollo de IA.

Implicaciones Legales

Las empresas que operan modelos de IA de frontera en Nueva York deben considerar prepararse para los posibles requisitos de cumplimiento:

  1. Documentación de Protocolos de Seguridad: Comenzar a desarrollar protocolos de seguridad y protección que puedan soportar el escrutinio público mientras protegen información confidencial.
  2. Sistemas de Respuesta a Incidentes: Establecer sistemas robustos para detectar, documentar e informar incidentes de seguridad.
  3. Preparación para Auditorías de Terceros: Identificar auditores calificados y establecer sistemas de documentación listos para auditoría.
  4. Revisión Legal: Realizar un análisis legal exhaustivo de las operaciones actuales bajo el marco regulatorio propuesto.

Este análisis se basa en información disponible públicamente a partir de junio de 2025. Los profesionales legales deben monitorear los desarrollos en curso y consultar la legislación y regulaciones actuales para los requisitos más actualizados.

Para los modelos de IA de frontera, la Ley RAISE de Nueva York parece diseñada para abordar críticas específicas de la fallida SB 1047 de California.

More Insights

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...

Gobernanza Ética e Inclusiva de la IA en Indonesia

El Ministerio de Comunicación y Digital de Indonesia ha reafirmado su compromiso de incorporar principios éticos e inclusivos en sus políticas de inteligencia artificial (IA). El Vice Ministro Nezar...

Texas y la Nueva Ley de Gobernanza de IA Responsable

El 22 de junio de 2025, el gobernador Abbott firmó la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas, convirtiendo a Texas en el tercer estado de EE. UU. en adoptar una ley integral...

La IA como Ventaja Competitiva en Cumplimiento Normativo

La inteligencia artificial está ayudando a las empresas a cumplir con una compleja gama de regulaciones en constante evolución, brindándoles una ventaja competitiva. Las herramientas basadas en IA...