La Ley RAISE de Nueva York y sus Riesgos en la Seguridad de la IA
La Ley de Seguridad y Educación Responsable de la IA (RAISE) de Nueva York tiene como objetivo proteger a las personas de los daños causados por la inteligencia artificial (IA). Sin embargo, al asumir que los modelos de IA son el punto clave para garantizar la seguridad, la RAISE corre el riesgo de convertir un desafío técnico en una carga burocrática.
Objetivos y Alcance de la Ley RAISE
La RAISE establece una serie de requisitos destinados a asegurar que las tecnologías de IA se desplieguen y utilicen de manera responsable. Actualmente, la ley está siendo debatida en el comité estatal. Legisladores como el asambleísta Alex Bores están preocupados por el potencial de que la IA avanzada contribuya a la creación de armas químicas, biológicas y nucleares. Sin embargo, los verdaderos riesgos residen en la accesibilidad de materiales precoces peligrosos, no en los sistemas de IA en sí.
Requisitos de la Ley
La RAISE se centra en los modelos de IA avanzados, aquellos que cumplen con ciertos umbrales computacionales y cuyo costo de entrenamiento supera los 100 millones de dólares. Los desarrolladores de modelos deben seguir procedimientos de prueba obligatorios, estrategias de mitigación de riesgos, auditorías de terceros regulares y cumplir con requisitos de transparencia. Las infracciones conllevan multas que van del 5% al 15% de los costos computacionales, lo que podría traducirse en multas de entre 5 millones y 15 millones de dólares.
Desafíos en la Implementación
A pesar de los objetivos bien intencionados de la ley, la alineación de los modelos para evitar abusos ha demostrado ser complicada. La alineación de modelos se ha mostrado más eficaz para prevenir daños accidentales, como proporcionar información incorrecta, que para detener a actores maliciosos que buscan utilizar la IA para fines peligrosos. Este fenómeno ha sido denominado “fragilidad del modelo”.
Enfoques de Seguridad Alternativos
En lugar de depender únicamente de la regulación de los modelos, las empresas están desarrollando sistemas externos que funcionan en conjunto con los modelos de IA. Esto incluye filtros de contenido, protocolos de supervisión humana y sistemas de monitoreo en tiempo real que pueden detectar y prevenir salidas perjudiciales. Este enfoque indica que el mercado está avanzando más rápido que el marco regulatorio actual.
Costos de Cumplimiento
La RAISE impone una serie pesada de requisitos que pueden resultar en costos significativos de cumplimiento. Las proyecciones oficiales sobre estos costos pueden ser optimistas, y se ha estimado que el cumplimiento inicial podría llevar entre 1,070 y 2,810 horas de trabajo, lo que equivale a un empleado a tiempo completo. Los años sucesivos podrían requerir entre 280 y 1,600 horas anualmente.
Conclusiones
La amplia gama de estimaciones sobre los costos de cumplimiento pone de manifiesto la incertidumbre fundamental que rodea a la Ley RAISE y otras iniciativas similares. A medida que el mercado de la IA evoluciona rápidamente, es esencial que se desarrollen leyes que prioricen la mitigación efectiva de riesgos en lugar de un teatro regulatorio que no aborda las preocupaciones reales de seguridad.