Los Riesgos de Seguridad de la IA en el Acta RAISE de Nueva York

La Ley RAISE de Nueva York y sus Riesgos en la Seguridad de la IA

La Ley de Seguridad y Educación Responsable de la IA (RAISE) de Nueva York tiene como objetivo proteger a las personas de los daños causados por la inteligencia artificial (IA). Sin embargo, al asumir que los modelos de IA son el punto clave para garantizar la seguridad, la RAISE corre el riesgo de convertir un desafío técnico en una carga burocrática.

Objetivos y Alcance de la Ley RAISE

La RAISE establece una serie de requisitos destinados a asegurar que las tecnologías de IA se desplieguen y utilicen de manera responsable. Actualmente, la ley está siendo debatida en el comité estatal. Legisladores como el asambleísta Alex Bores están preocupados por el potencial de que la IA avanzada contribuya a la creación de armas químicas, biológicas y nucleares. Sin embargo, los verdaderos riesgos residen en la accesibilidad de materiales precoces peligrosos, no en los sistemas de IA en sí.

Requisitos de la Ley

La RAISE se centra en los modelos de IA avanzados, aquellos que cumplen con ciertos umbrales computacionales y cuyo costo de entrenamiento supera los 100 millones de dólares. Los desarrolladores de modelos deben seguir procedimientos de prueba obligatorios, estrategias de mitigación de riesgos, auditorías de terceros regulares y cumplir con requisitos de transparencia. Las infracciones conllevan multas que van del 5% al 15% de los costos computacionales, lo que podría traducirse en multas de entre 5 millones y 15 millones de dólares.

Desafíos en la Implementación

A pesar de los objetivos bien intencionados de la ley, la alineación de los modelos para evitar abusos ha demostrado ser complicada. La alineación de modelos se ha mostrado más eficaz para prevenir daños accidentales, como proporcionar información incorrecta, que para detener a actores maliciosos que buscan utilizar la IA para fines peligrosos. Este fenómeno ha sido denominado “fragilidad del modelo”.

Enfoques de Seguridad Alternativos

En lugar de depender únicamente de la regulación de los modelos, las empresas están desarrollando sistemas externos que funcionan en conjunto con los modelos de IA. Esto incluye filtros de contenido, protocolos de supervisión humana y sistemas de monitoreo en tiempo real que pueden detectar y prevenir salidas perjudiciales. Este enfoque indica que el mercado está avanzando más rápido que el marco regulatorio actual.

Costos de Cumplimiento

La RAISE impone una serie pesada de requisitos que pueden resultar en costos significativos de cumplimiento. Las proyecciones oficiales sobre estos costos pueden ser optimistas, y se ha estimado que el cumplimiento inicial podría llevar entre 1,070 y 2,810 horas de trabajo, lo que equivale a un empleado a tiempo completo. Los años sucesivos podrían requerir entre 280 y 1,600 horas anualmente.

Conclusiones

La amplia gama de estimaciones sobre los costos de cumplimiento pone de manifiesto la incertidumbre fundamental que rodea a la Ley RAISE y otras iniciativas similares. A medida que el mercado de la IA evoluciona rápidamente, es esencial que se desarrollen leyes que prioricen la mitigación efectiva de riesgos en lugar de un teatro regulatorio que no aborda las preocupaciones reales de seguridad.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...