Proyecto de Ley de Seguridad en IA Llega al Escritorio del Gobernador de Nueva York

Proyecto de Ley de Regulación de Seguridad de IA en Nueva York

El proyecto de ley RAISE, centrado en la seguridad de la inteligencia artificial (IA), ha sido aprobado por los legisladores de Nueva York y se dirige al escritorio de la gobernadora Kathy Hochul. Este proyecto de ley representa un intento integral de regular la seguridad de la IA a nivel estatal.

Contexto y Motivación

El interés por la regulación de la IA ha resurgido, especialmente después de la aprobación de la ley SB 1047 en California en agosto. Sin embargo, la incertidumbre persiste sobre si el proyecto de ley de Nueva York tendrá un destino diferente y no será vetado por la gobernadora.

Principales Provisions del Proyecto de Ley

El RAISE Act, introducido por el senador demócrata Andrew Gounardes, impone a los desarrolladores de modelos de lenguaje grande la obligación de crear y publicar protocolos de seguridad y evaluaciones de riesgo. Además, la ley requiere que las empresas informen si sus modelos de IA son robados por actores maliciosos o si estos modelos presentan comportamientos peligrosos.

Las sanciones por incumplimiento son severas, otorgando al fiscal general de Nueva York la autoridad para imponer multas civiles de hasta 30 millones de dólares a las empresas que no cumplan con estas regulaciones.

Requisitos de Aplicación

Las nuevas reglas se aplicarán únicamente a aquellas empresas que utilicen más de 100 millones de dólares en recursos de computación para entrenar sus modelos. Esto sugiere un enfoque en las grandes corporaciones de tecnología, en lugar de las startups más pequeñas.

Reacciones de la Industria

La reacción de los capitalistas de riesgo ha sido negativa. Se argumenta que el proyecto de ley es otro ejemplo de regulación que podría obstaculizar el desarrollo de la IA en los Estados Unidos, especialmente en un momento en que otros países avanzan rápidamente en esta tecnología.

Un ejemplo de esta preocupación se manifiesta en las palabras de un socio de Andreessen Horowitz, quien calificó el RAISE Act como un «proyecto de ley estatal de IA estúpido» que perjudicará a la industria estadounidense.

Comparación con la Ley de California

Preocupaciones similares sobre la inhibición del desarrollo de la IA llevaron a la muerte del SB 1047 en California hace ocho meses. Este proyecto de ley requería que los desarrolladores de modelos de IA incluyeran un «interruptor de emergencia» y la posibilidad de que estas empresas fueran responsables civilmente por daños causados por sus modelos.

Algunos dentro de la industria, como el cofundador de Anthropic, han expresado su preocupación de que el RAISE Act sea demasiado amplio y que las altas sanciones por incumplimiento podrían afectar desproporcionadamente a las startups más pequeñas.

Propuestas Futuras

Se sugiere que un estándar de transparencia federal sería ideal, con el fin de establecer una normativa única para el país en lugar de un mosaico de leyes estatales, lo que podría generar confusión y dificultad para las empresas que operan en múltiples jurisdicciones.

More Insights

Inteligencia Artificial Responsable: Modelos Generativos y Conciencia Ambiental

La inteligencia artificial generativa está transformando industrias, pero detrás de cada modelo innovador se oculta un costo: las emisiones de carbono. Este artículo proporciona una guía completa...

El Futuro de la Regulación de la Inteligencia Artificial en EE. UU.

Recientemente, la Cámara de Representantes de EE. UU. aprobó el proyecto de ley H.R. 1, que pausaría cualquier regulación estatal o local que afecte a los modelos o investigaciones de inteligencia...

Gobernanza Global de IA en India: Retos y Oportunidades

Este artículo analiza las leyes y políticas relevantes para la gobernanza de la inteligencia artificial en India. La serie explora el desarrollo de la infraestructura digital y las iniciativas del...

El futuro de la gobernanza: Inteligencia Artificial en los gobiernos de los EAU

La UAE está transformando la inteligencia artificial de un asistente de oficina a un actor estratégico en la toma de decisiones políticas. Este movimiento no solo reimagina la gobernanza, sino que...

Código de Práctica de la UE para la IA: Cumplimiento a partir de 2025

Un código de práctica diseñado para ayudar a miles de empresas a cumplir con las reglas de inteligencia artificial de la Unión Europea puede aplicarse solo a finales de 2025, según indicó la Comisión...

La Crisis de Responsabilidad en la IA Empresarial

La inteligencia artificial ha alcanzado un punto de inflexión, pero muchos proyectos de IA nunca llegan a producción y los que lo hacen a menudo operan como cajas negras digitales. Sin una supervisión...

Comisión considera un período de gracia para cumplimiento del Código de IA

La Comisión está considerando ofrecer a las empresas un período de gracia para cumplir con el código de inteligencia artificial. Esta medida busca facilitar la adaptación de las empresas a las nuevas...

Texas y la Regulación de la Inteligencia Artificial: Un Nuevo Horizonte

El 22 de junio de 2025, Texas aprobó la Ley de Gobernanza de Inteligencia Artificial Responsable, convirtiéndose en el segundo estado en implementar una legislación integral sobre IA. La ley establece...