Agentes de IA: Transformando la Gobernanza en Australia

Agentes de IA: ¿Cómo cambian el juego para la gobernanza de la IA en Australia?

En el último año, ha surgido una nueva clase de herramientas de inteligencia artificial (IA) conocidas como agentes autónomos (Agentes), marcando lo que comúnmente se denomina la era agentica. Si bien los Agentes han introducido nuevas posibilidades en la automatización, su naturaleza dinámica y autónoma también tiene el potencial de intensificar ciertos problemas existentes y familiares asociados con la IA, tales como la discriminación, la propiedad intelectual, la privacidad, la transparencia y la explicabilidad. Por lo tanto, surge la pregunta: ¿en qué medida los Agentes presentan problemas novedosos y requieren nuevos mecanismos de gobernanza o legales en comparación con las olas de IA anteriores?

Entrando en la ‘era agentica’, pero ¿qué es exactamente un ‘agente’?

Aún no existe una definición establecida de lo que constituye un Agente, ya que el término ha sido aplicado a una amplia gama de tecnologías, desde modelos de razonamiento (como el modelo ‘Computer Use’ de Anthropic), hasta copilotos agenticos (como el Operador y Manus de ChatGPT), e incluso la inteligencia artificial general. Si bien la definición precisa y la forma de un Agente siguen siendo objeto de debate, existe un consenso general sobre que las características clave de un Agente incluyen autonomía, adaptabilidad y orientación a objetivos con mínima o ninguna intervención humana.

Es importante distinguir entre Agentes y IA agentica, que a menudo se utilizan de manera intercambiable. La IA agentica se refiere a un paradigma más avanzado donde sistemas autónomos (es decir, Agentes) colaboran para lograr objetivos complejos a través de razonamiento en tiempo real, composición dinámica de tareas y autooptimización.

Un ‘caja negra’ más turbia

Los principios actuales de transparencia en la IA suelen centrarse en divulgaciones (como avisos y formularios de consentimiento) para informar a los individuos si están interactuando con IA o si un contenido particular ha sido generado por IA. Sin embargo, estos principios son limitados debido al problema de la caja negra, donde los patrones ocultos a través de los cuales un modelo infiere una salida de una entrada no son necesariamente explicables en términos significativos.

Este problema se agrava en el contexto de los Agentes, ya que pueden ejecutar rápidamente volúmenes de microacciones en segundo plano, a menudo a través de varios sistemas diferentes. Estas microacciones pueden no estar bajo el control de, o ser visibles para, la organización que implementa el Agente.

Gestionando riesgos en movimiento

Los Agentes son considerados dinámicos porque pueden adaptarse y desarrollar atributos emergentes sin cambios manuales en su código fuente o configuraciones. Pueden fluctuar entre niveles de riesgo a lo largo de un flujo de trabajo. Por ejemplo, una organización que utiliza un bot de servicio al cliente que no solo responde consultas (como un chatbot regular) sino que también maneja tareas de forma autónoma, puede verse enfrentada a un aumento de riesgo en el proceso.

Los marcos de gobernanza deberán evolucionar para asegurar que los Agentes operen dentro de umbrales de riesgo aceptables. Parte del proceso de gobernanza incluirá definir claramente cuáles son las barras de seguridad para lograr un objetivo particular, junto con consideraciones de seguridad informática.

Salvaguardias técnicas necesarias más que nunca

Como se ha mencionado, los Agentes representan un cambio tecnológico respecto al paradigma del usuario-prompt-respuesta de la IA generativa, donde la mayoría de los riesgos pueden ser mitigados por barras de seguridad centradas en el comportamiento humano. Sin embargo, con Agentes capaces de ejecutar objetivos complejos de forma autónoma, la ecuación de riesgo está cambiando.

Estamos viendo la aparición de herramientas como plataformas de cumplimiento de IA que proporcionan paneles de control, registros, análisis y características de notificación que ayudan a las organizaciones a monitorear las acciones e interacciones de un Agente en tiempo real.

¿Qué pueden hacer los equipos legales?

Los equipos legales necesitarán mantenerse al tanto de la gestión de riesgos y responsabilidades asociadas con los Agentes. La gestión del riesgo legal es especialmente importante, ya que la ley sobre la responsabilidad de los Agentes aún está en desarrollo. Una colaboración proactiva entre los equipos legales, de negocio, de riesgo/cumplimiento y de tecnología es esencial para desarrollar marcos de gobernanza efectivos.

Los equipos legales desempeñarán un papel importante en la elaboración de requisitos de documentación de gobernanza para los Agentes, el desarrollo de planes de respuesta a incidentes y la garantía de que se mantengan registros de auditoría de las decisiones de los Agentes.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...