Proyecto de Ley de Seguridad en IA Llega al Escritorio del Gobernador de Nueva York

Proyecto de Ley de Regulación de Seguridad de IA en Nueva York

El proyecto de ley RAISE, centrado en la seguridad de la inteligencia artificial (IA), ha sido aprobado por los legisladores de Nueva York y se dirige al escritorio de la gobernadora Kathy Hochul. Este proyecto de ley representa un intento integral de regular la seguridad de la IA a nivel estatal.

Contexto y Motivación

El interés por la regulación de la IA ha resurgido, especialmente después de la aprobación de la ley SB 1047 en California en agosto. Sin embargo, la incertidumbre persiste sobre si el proyecto de ley de Nueva York tendrá un destino diferente y no será vetado por la gobernadora.

Principales Provisions del Proyecto de Ley

El RAISE Act, introducido por el senador demócrata Andrew Gounardes, impone a los desarrolladores de modelos de lenguaje grande la obligación de crear y publicar protocolos de seguridad y evaluaciones de riesgo. Además, la ley requiere que las empresas informen si sus modelos de IA son robados por actores maliciosos o si estos modelos presentan comportamientos peligrosos.

Las sanciones por incumplimiento son severas, otorgando al fiscal general de Nueva York la autoridad para imponer multas civiles de hasta 30 millones de dólares a las empresas que no cumplan con estas regulaciones.

Requisitos de Aplicación

Las nuevas reglas se aplicarán únicamente a aquellas empresas que utilicen más de 100 millones de dólares en recursos de computación para entrenar sus modelos. Esto sugiere un enfoque en las grandes corporaciones de tecnología, en lugar de las startups más pequeñas.

Reacciones de la Industria

La reacción de los capitalistas de riesgo ha sido negativa. Se argumenta que el proyecto de ley es otro ejemplo de regulación que podría obstaculizar el desarrollo de la IA en los Estados Unidos, especialmente en un momento en que otros países avanzan rápidamente en esta tecnología.

Un ejemplo de esta preocupación se manifiesta en las palabras de un socio de Andreessen Horowitz, quien calificó el RAISE Act como un «proyecto de ley estatal de IA estúpido» que perjudicará a la industria estadounidense.

Comparación con la Ley de California

Preocupaciones similares sobre la inhibición del desarrollo de la IA llevaron a la muerte del SB 1047 en California hace ocho meses. Este proyecto de ley requería que los desarrolladores de modelos de IA incluyeran un «interruptor de emergencia» y la posibilidad de que estas empresas fueran responsables civilmente por daños causados por sus modelos.

Algunos dentro de la industria, como el cofundador de Anthropic, han expresado su preocupación de que el RAISE Act sea demasiado amplio y que las altas sanciones por incumplimiento podrían afectar desproporcionadamente a las startups más pequeñas.

Propuestas Futuras

Se sugiere que un estándar de transparencia federal sería ideal, con el fin de establecer una normativa única para el país en lugar de un mosaico de leyes estatales, lo que podría generar confusión y dificultad para las empresas que operan en múltiples jurisdicciones.

More Insights

Control y cumplimiento en la era de la IA soberana en manufactura

Los nubes de IA soberanas proporcionan tanto control como cumplimiento, abordando las crecientes preocupaciones en torno a la residencia de datos y el riesgo regulatorio. En un mundo donde la adopción...

Ética en la Inteligencia Artificial: Avances de la Alianza Escocesa

La Alianza Escocesa de IA ha publicado su Informe de Impacto 2024/2025, destacando un año transformador en la promoción de una inteligencia artificial ética e inclusiva en Escocia. El informe revela...

El futuro del cumplimiento con la Ley de IA de la UE

La Comisión Europea anunció el viernes pasado que no habrá un retraso en la Ley de IA de la UE, lo que ha provocado reacciones encontradas. Aunque algunas partes de la Ley ya están en vigor, los...

Modelos de Lenguaje y la Confianza: Un Análisis del Acta de IA de la UE

Este estudio sistemático examina la confianza en los modelos de lenguaje grande (LLMs) a la luz de la Ley de IA de la UE, destacando su desarrollo y adopción en diversos sectores. A pesar de sus...

¿Debería pausar la implementación de la Ley de IA de la UE?

La Comisión Europea ha rechazado las solicitudes de algunas empresas para retrasar la implementación de la Ley de IA, manteniendo el cronograma original de la legislación. Además, el primer ministro...

Controles más estrictos de IA: Ganadores y perdedores en el sector tecnológico

La administración de Trump está preparando nuevas restricciones a las exportaciones de chips de IA a Malasia y Tailandia para evitar que procesadores avanzados lleguen a China. Se prevé que estas...

Gobernanza de IA y Datos: Clave para Empresas Modernas

La gobernanza de la inteligencia artificial y la gobernanza de datos son fundamentales para garantizar el desarrollo de soluciones de IA éticas y de alta calidad. Estos marcos de gobernanza son...

Potenciando la IA Responsable: LLMOps con Python

En el panorama hipercompetitivo actual, no es suficiente con desplegar Modelos de Lenguaje Grande (LLMs); es necesario contar con un marco robusto de LLMOps para garantizar la fiabilidad y el...

Fortaleciendo la Protección de Datos y la Gobernanza de la IA en Singapur

Singapur está respondiendo proactivamente a los desafíos que plantea el uso de datos en la era de la inteligencia artificial, según la ministra de Comunicaciones e Información, Josephine Teo. La...