Los Riesgos de Seguridad de la IA en el Acta RAISE de Nueva York

La Ley RAISE de Nueva York y sus Riesgos en la Seguridad de la IA

La Ley de Seguridad y Educación Responsable de la IA (RAISE) de Nueva York tiene como objetivo proteger a las personas de los daños causados por la inteligencia artificial (IA). Sin embargo, al asumir que los modelos de IA son el punto clave para garantizar la seguridad, la RAISE corre el riesgo de convertir un desafío técnico en una carga burocrática.

Objetivos y Alcance de la Ley RAISE

La RAISE establece una serie de requisitos destinados a asegurar que las tecnologías de IA se desplieguen y utilicen de manera responsable. Actualmente, la ley está siendo debatida en el comité estatal. Legisladores como el asambleísta Alex Bores están preocupados por el potencial de que la IA avanzada contribuya a la creación de armas químicas, biológicas y nucleares. Sin embargo, los verdaderos riesgos residen en la accesibilidad de materiales precoces peligrosos, no en los sistemas de IA en sí.

Requisitos de la Ley

La RAISE se centra en los modelos de IA avanzados, aquellos que cumplen con ciertos umbrales computacionales y cuyo costo de entrenamiento supera los 100 millones de dólares. Los desarrolladores de modelos deben seguir procedimientos de prueba obligatorios, estrategias de mitigación de riesgos, auditorías de terceros regulares y cumplir con requisitos de transparencia. Las infracciones conllevan multas que van del 5% al 15% de los costos computacionales, lo que podría traducirse en multas de entre 5 millones y 15 millones de dólares.

Desafíos en la Implementación

A pesar de los objetivos bien intencionados de la ley, la alineación de los modelos para evitar abusos ha demostrado ser complicada. La alineación de modelos se ha mostrado más eficaz para prevenir daños accidentales, como proporcionar información incorrecta, que para detener a actores maliciosos que buscan utilizar la IA para fines peligrosos. Este fenómeno ha sido denominado “fragilidad del modelo”.

Enfoques de Seguridad Alternativos

En lugar de depender únicamente de la regulación de los modelos, las empresas están desarrollando sistemas externos que funcionan en conjunto con los modelos de IA. Esto incluye filtros de contenido, protocolos de supervisión humana y sistemas de monitoreo en tiempo real que pueden detectar y prevenir salidas perjudiciales. Este enfoque indica que el mercado está avanzando más rápido que el marco regulatorio actual.

Costos de Cumplimiento

La RAISE impone una serie pesada de requisitos que pueden resultar en costos significativos de cumplimiento. Las proyecciones oficiales sobre estos costos pueden ser optimistas, y se ha estimado que el cumplimiento inicial podría llevar entre 1,070 y 2,810 horas de trabajo, lo que equivale a un empleado a tiempo completo. Los años sucesivos podrían requerir entre 280 y 1,600 horas anualmente.

Conclusiones

La amplia gama de estimaciones sobre los costos de cumplimiento pone de manifiesto la incertidumbre fundamental que rodea a la Ley RAISE y otras iniciativas similares. A medida que el mercado de la IA evoluciona rápidamente, es esencial que se desarrollen leyes que prioricen la mitigación efectiva de riesgos en lugar de un teatro regulatorio que no aborda las preocupaciones reales de seguridad.

More Insights

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...

Gobernanza Ética e Inclusiva de la IA en Indonesia

El Ministerio de Comunicación y Digital de Indonesia ha reafirmado su compromiso de incorporar principios éticos e inclusivos en sus políticas de inteligencia artificial (IA). El Vice Ministro Nezar...

Texas y la Nueva Ley de Gobernanza de IA Responsable

El 22 de junio de 2025, el gobernador Abbott firmó la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas, convirtiendo a Texas en el tercer estado de EE. UU. en adoptar una ley integral...

La IA como Ventaja Competitiva en Cumplimiento Normativo

La inteligencia artificial está ayudando a las empresas a cumplir con una compleja gama de regulaciones en constante evolución, brindándoles una ventaja competitiva. Las herramientas basadas en IA...