Nueva legislación de seguridad para IA en Nueva York

Nueva legislación sobre seguridad de IA en Nueva York

La gobernadora de Nueva York ha firmado la Ley RAISE, posicionando al estado como el segundo en EE. UU. en promulgar una legislación importante sobre la seguridad de la inteligencia artificial.

Los legisladores estatales aprobaron la Ley RAISE en junio, pero tras presiones de la industria tecnológica, la gobernadora propuso cambios para reducir el alcance del proyecto. Finalmente, se acordó firmar la ley original, mientras que los legisladores se comprometieron a realizar las modificaciones solicitadas el próximo año.

Principales disposiciones de la Ley RAISE

La ley requerirá que los grandes desarrolladores de IA publiquen información sobre sus protocolos de seguridad y reporten incidentes de seguridad al estado en un plazo de 72 horas. Además, se establecerá una nueva oficina dentro del Departamento de Servicios Financieros para supervisar el desarrollo de IA.

Las empresas que no envíen informes de seguridad o hagan declaraciones falsas podrán ser multadas con hasta $1 millón, y hasta $3 millones por infracciones posteriores.

Reacciones y contexto

La gobernadora mencionó que esta ley se basa en el marco recientemente adoptado en California, creando un estándar unificado entre los principales estados tecnológicos del país, mientras el gobierno federal se queda atrás en la implementación de regulaciones sensatas que protejan al público.

Un senador estatal, patrocinador de la ley, afirmó que la industria tecnológica intentó socavar el proyecto, pero lograron aprobar la ley de seguridad de IA más estricta del país.

Tanto OpenAI como Anthropic expresaron su apoyo a la legislación de Nueva York, mientras que también abogaron por una legislación federal. La directora de asuntos externos de Anthropic indicó que la aprobación de leyes de transparencia de IA en dos de los estados más grandes del país subraya la importancia crítica de la seguridad y debería inspirar al Congreso a construir sobre estas bases.

No obstante, no todos en la industria tecnológica han estado tan a favor. Un super PAC respaldado por figuras influyentes está buscando desafiar a un asambleísta que co-patrocinó la ley.

Desafíos futuros

Esto ocurre tras la firma de una orden ejecutiva que dirige a las agencias federales a desafiar las leyes estatales sobre IA. Esta orden, respaldada por un asesor de IA del gobierno, es el último intento de limitar la capacidad de los estados para regular la IA y probablemente será impugnada en los tribunales.

También se discutió la orden ejecutiva y el papel que han jugado ciertos actores en la oposición a la regulación estatal de la IA en un reciente podcast.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...