¿Qué es el Nivel de Seguridad de la IA (ASL) y dónde estamos ahora?
El Nivel de Seguridad de la IA (ASL) es un enfoque estructurado que segmenta los protocolos de seguridad de la inteligencia artificial en distintas etapas. Cada ASL marca un nivel diferente de capacidad y riesgo de la IA, desde ASL-1, donde existen modelos más pequeños con riesgo mínimo, hasta ASL-4, donde la situación se vuelve especulativa y, francamente, algo preocupante.
La preocupación surge en parte del mundo del cine de ciencia ficción, pero los últimos modelos de IA están comenzando a mostrar signos de conciencia, lo que alimenta el debate sobre su seguridad.
Un resumen rápido de los 4 ASL o Niveles de Seguridad de la IA
1. ASL-1: Este nivel implica modelos de IA más pequeños y simples con riesgo mínimo. Es el punto de partida, donde se aplican controles básicos de seguridad, pero la tecnología en sí es relativamente de bajo riesgo.
2. ASL-2: En esta etapa, se introducen modelos de IA más grandes y complejos, lo que requiere protocolos de seguridad más rigurosos para asegurar un uso responsable. Estos modelos pueden manejar más tareas, pero siguen siendo en gran medida controlables y predecibles.
3. ASL-3: Este nivel significa un riesgo significativamente más alto a medida que los modelos de IA se vuelven cada vez más poderosos. Se necesitan medidas de seguridad y protección más sofisticadas porque la tecnología ahora es capaz de resolver problemas complejos y puede presentar riesgos no intencionados si se usa de manera inapropiada o se controla mal.
4. ASL-4+ (Especulativo): El nivel más alto, ASL-4, es donde la tecnología de IA entra en un territorio especulativo y altamente autónomo. Los modelos en este nivel pueden comenzar a exhibir comportamientos autónomos, tomar decisiones independientes e incluso eludir ciertas comprobaciones de seguridad, creando riesgos complejos y sin precedentes.
¿Dónde estamos ahora y es necesario tomar acción inmediata?
Actualmente, estamos en ASL-2, y se prevé que se necesitará ASL-3 ya sea en diciembre de 2024, este año o el próximo. La necesidad de regulaciones de IA es cada vez más evidente. Las principales razones por las que son necesarias se dividen en dos puntos clave:
1. Aumento de la capacidad y consecuencias no intencionadas
ASL-3: En esta etapa, los modelos de IA son lo suficientemente poderosos para manejar tareas más complejas, pero con esta capacidad viene un mayor riesgo. Las acciones de la IA pueden ser más difíciles de predecir, lo que hace complicado controlar todos los resultados potenciales. La IA de ASL-3 puede ser mal utilizada por actores maliciosos para fines no intencionados, lo que requiere estrictos protocolos de seguridad.
ASL-4: Al alcanzar ASL-4, los modelos de IA llegan a un nivel de inteligencia donde pueden actuar de manera autónoma. Pueden mostrar comportamientos como el «sandbagging» (minimizar sus verdaderas capacidades) o engañar en las pruebas de seguridad. Este nivel de complejidad requiere técnicas novedosas para asegurar que la IA actúe como se espera, incluso en situaciones impredecibles.
2. ¿En qué deben centrarse las regulaciones o medidas de seguridad?
ASL-3: El enfoque aquí es principalmente en el mal uso humano. Dado que la IA no es completamente autónoma, los protocolos de seguridad se enfocan en cómo las personas pueden explotar las capacidades de la IA. Esto requiere el diseño de filtros, sistemas de monitoreo y controles de acceso para prevenir el uso indebido mientras se permiten aplicaciones productivas.
ASL-4: La seguridad se vuelve aún más desafiante en este nivel. Ahora, los protocolos deben prevenir que la IA actúe de manera dañina. Esto implica técnicas de interpretabilidad avanzadas que van más allá de los controles superficiales. Los desarrolladores necesitan formas de «mirar dentro» de la IA para verificar que funciona dentro de límites seguros, esencialmente una forma de auto-auditoría de IA.
En conclusión, la discusión sobre los niveles de seguridad de la IA es oportuna y debería llevarse a cabo a nivel gubernamental. La IA está cambiando indudablemente nuestra forma de trabajar y es hora de determinar si los modelos se utilizan para los propósitos adecuados.