Ley de Nueva York busca regular la inteligencia artificial ante riesgos críticos

Los Legisladores de Nueva York Buscan Evitar el ‘Daño Crítico’ por IA

Los legisladores del estado de Nueva York han propuesto nuevas requisitos de seguridad para los modelos de inteligencia artificial más avanzados del mundo. Sin embargo, los legisladores federales están amenazando con anular estas nuevas reglas antes de que se implementen.

Detalles del Proyecto de Ley

La Legislatura estatal aprobó un proyecto de ley la semana pasada que obligaría a los desarrolladores de los modelos de IA más grandes y avanzados a elaborar planes de seguridad integrales que detallen los pasos que han tomado para reducir el riesgo de causar daños graves.

La medida, conocida como el RAISE Act (Ley de Seguridad y Educación Responsable de la IA), también requeriría que los desarrolladores informen al estado sobre incidentes de seguridad importantes, como un modelo que actúe por su cuenta sin que un usuario lo haya solicitado. Además, el proyecto de ley haría que los desarrolladores sean responsables de ciertas violaciones de la ley, permitiendo al fiscal general del estado buscar multas civiles de hasta decenas de millones de dólares.

Reacciones de la Industria

Las empresas tecnológicas y sus organizaciones comerciales ya están presionando a la gobernadora Kathy Hochul para que vete la medida, argumentando que podría ahogar la innovación en un campo transformador. Mientras tanto, el Congreso está considerando prohibir a los estados regular la IA durante los próximos diez años, un movimiento que podría efectivamente matar la medida antes de que tenga la oportunidad de entrar en vigor.

Sin embargo, los partidarios del proyecto de ley instan a Hochul a firmarlo, argumentando que los federales no se están moviendo lo suficientemente rápido para regular una industria de IA que avanza rápidamente y tiene un potencial enorme para imponer cambios en el mundo.

Implementación y Revisión de Protocolos de Seguridad

El RAISE Act se aplicaría a los desarrolladores de modelos de IA de frontera, aquellos que son los más grandes y avanzados en el campo, desarrollados, desplegados o destinados a operar en Nueva York. Los desarrolladores estarían obligados a implementar sus protocolos de seguridad antes de ser desplegados y serían objeto de una revisión de terceros, cuyos resultados estarían disponibles para el Departamento de Seguridad Nacional y Servicios de Emergencia del estado, así como para la Oficina del Fiscal General del estado.

El proyecto de ley exige que los protocolos de seguridad estén diseñados para reducir la posibilidad de daños críticos, que son incidentes causados o materialmente habilitados por el modelo de IA del desarrollador, resultando en 100 o más lesiones o muertes, o más de $1,000 millones en daños. También se requiere que los desarrolladores consideren la posibilidad de que la IA conduzca a la creación de armas químicas, biológicas o incluso nucleares.

Consecuencias de las Violaciones

El fiscal general podría buscar multas de hasta $10 millones por una primera violación, y hasta $30 millones por cada violación subsecuente.

Intentos Previos de Regulación en California

Los legisladores de California realizaron un intento previo de regular a los desarrolladores de IA de manera similar el año pasado, pero la medida enfrentó una oposición significativa y el gobernador Gavin Newsom finalmente la vetó. Grupos comerciales como Tech:NYC, que incluye a Google y Meta, se oponen al RAISE Act, argumentando que la regulación debería basarse en usos específicos en lugar de un enfoque general.

Conclusión

La gobernadora Hochul ha sido un importante apoyo de la iniciativa Empire AI, un consorcio público-privado dedicado a investigar y desarrollar inteligencia artificial. Mientras tanto, el Congreso continúa debatiendo si debería prohibir temporalmente a los estados regular la IA por completo.

La situación actual resalta la creciente tensión entre la regulación estatal y federal en el ámbito de la inteligencia artificial, un tema que probablemente seguirá siendo relevante en los próximos años.

More Insights

Control y cumplimiento en la era de la IA soberana en manufactura

Los nubes de IA soberanas proporcionan tanto control como cumplimiento, abordando las crecientes preocupaciones en torno a la residencia de datos y el riesgo regulatorio. En un mundo donde la adopción...

Ética en la Inteligencia Artificial: Avances de la Alianza Escocesa

La Alianza Escocesa de IA ha publicado su Informe de Impacto 2024/2025, destacando un año transformador en la promoción de una inteligencia artificial ética e inclusiva en Escocia. El informe revela...

El futuro del cumplimiento con la Ley de IA de la UE

La Comisión Europea anunció el viernes pasado que no habrá un retraso en la Ley de IA de la UE, lo que ha provocado reacciones encontradas. Aunque algunas partes de la Ley ya están en vigor, los...

Modelos de Lenguaje y la Confianza: Un Análisis del Acta de IA de la UE

Este estudio sistemático examina la confianza en los modelos de lenguaje grande (LLMs) a la luz de la Ley de IA de la UE, destacando su desarrollo y adopción en diversos sectores. A pesar de sus...

¿Debería pausar la implementación de la Ley de IA de la UE?

La Comisión Europea ha rechazado las solicitudes de algunas empresas para retrasar la implementación de la Ley de IA, manteniendo el cronograma original de la legislación. Además, el primer ministro...

Controles más estrictos de IA: Ganadores y perdedores en el sector tecnológico

La administración de Trump está preparando nuevas restricciones a las exportaciones de chips de IA a Malasia y Tailandia para evitar que procesadores avanzados lleguen a China. Se prevé que estas...

Gobernanza de IA y Datos: Clave para Empresas Modernas

La gobernanza de la inteligencia artificial y la gobernanza de datos son fundamentales para garantizar el desarrollo de soluciones de IA éticas y de alta calidad. Estos marcos de gobernanza son...

Potenciando la IA Responsable: LLMOps con Python

En el panorama hipercompetitivo actual, no es suficiente con desplegar Modelos de Lenguaje Grande (LLMs); es necesario contar con un marco robusto de LLMOps para garantizar la fiabilidad y el...

Fortaleciendo la Protección de Datos y la Gobernanza de la IA en Singapur

Singapur está respondiendo proactivamente a los desafíos que plantea el uso de datos en la era de la inteligencia artificial, según la ministra de Comunicaciones e Información, Josephine Teo. La...