Um Chamado para a Governança das Interações de IA Mult-Agentes
Recentemente, uma nova embarcação de carga, o Grande Tianjin, foi lançada pela empresa de transporte marítimo italiana Grimaldi Group. Esta embarcação, com capacidade para 9.000 unidades, está em sua viagem inaugural, transportando veículos elétricos da China para a Europa. Durante seu trajeto, ela cruzará diferentes jurisdições e navegará entre nações concorrentes, ajustando seu curso com base nas rotas rastreadas de outras embarcações. A eficácia de tal jornada depende de uma rede altamente funcional de estruturas legais, infraestrutura e supervisão.
Agora, se substituirmos uma embarcação marítima por um agente de IA, temos um sistema capaz de tomar decisões em um ambiente muito mais complexo do que o mar. Esses agentes podem interagir com outros sistemas de IA para alcançar seus objetivos, o que também pode acarretar riscos sem precedentes. Embora esse cenário já esteja se desenrolando, existem muito poucas estruturas de governança em vigor para garantir que essas interações de IA permaneçam seguras.
Riscos dos Sistemas de IA Mult-Agentes
As empresas estão desenvolvendo agentes de IA, definidos como capazes de operar em ambientes complexos e perseguir metas com pouca instrução ou supervisão. Embora as capacidades de agente do GPT-5 tenham sido recebidas com ceticismo, há um forte incentivo de mercado para continuar construindo esses sistemas. No Reino Unido, a OpenAI anunciou um acordo com o governo, e a Palantir está firmando parcerias com o NHS. Na Europa, o ArchiBot da Anthropic está explorando os arquivos do Parlamento Europeu.
À medida que os setores privado e público aceleram e expandem sua adoção para colher valor comercial, os agentes de IA precisarão comunicar-se e interagir tanto entre si quanto com as pessoas para completar suas tarefas, criando assim sistemas de IA mult-agentes. Já existem cenários preocupantes que destacam os modos de falha potenciais que podem surgir dessas interações, incluindo:
- Sistemas de IA controlando o mercado de gasolina varejista na Alemanha que mostraram conluio às custas dos clientes.
- Sistemas de IA envolvidos em três cenários simulados de compartilhamento de recursos (pesca, pastagem e poluição) que aceleraram a depleção de recursos.
- Veículos autônomos movidos por IA com estratégias válidas para manter os passageiros seguros que podem falhar em coordenar se suas estratégias forem incompatíveis.
Embora os agentes de IA possam operar de forma autônoma, sua compreensão do contexto em que estão e as consequências de suas ações é limitada. Além disso, os modelos fundamentais que formam a base dos agentes de IA não estão sendo projetados com os riscos de múltiplos agentes em mente, e falta a inteligência cooperativa necessária para interagir de forma segura.
Construindo Infraestrutura e Padrões para Cooperação Segura da IA
Diante desse cenário, o Código de Prática da IA de Uso Geral da UE é um começo promissor. Pela primeira vez, uma estrutura de governança reconheceu os riscos inerentes decorrentes das interações mult-agentes. Ela esclarece as obrigações de conformidade para os provedores de sistemas de IA que operam na UE, a fim de mitigar esses riscos durante todo o ciclo de vida da IA.
Embora o Código de Prática da UE seja bem-vindo, vinculando compromissos de segurança à Lei de IA, ele é apenas uma parte de um quebra-cabeça maior. Na UE, o JCT21 CEN CENELEC também trabalhará em padrões para substituir o Código de Prática até 2027. Além disso, Institutos de Segurança de IA estão começando a desenvolver metodologias para a avaliação das capacidades agentes e interações de IA mult-agentes.
Liçōes da Governança Marítima
Enquanto mais simples do que a natureza complexa dos sistemas de IA mult-agentes, o setor marítimo pode oferecer algumas diretrizes inspiradoras sobre como construir a governança e a infraestrutura adequadas para os agentes de IA hoje:
- Tornar o invisível visível. Na indústria marítima, sistemas de identificação automática (AIS) permitem o rastreamento da localização, velocidade, propriedade, objetivos e rotas passadas de um navio. Os agentes de IA — que atualmente são praticamente invisíveis — devem se tornar descobertos e transparentes.
- O que a indústria marítima pode nos ensinar sobre governança? A legislação marítima, ancorada em estruturas como a Convenção das Nações Unidas sobre o Direito do Mar (UNCLOS), estabelece obrigações para cooperação bilateral, regional e internacional.
- Devemos construir uma infraestrutura cooperativa e descentralizada? Assim como os sistemas marítimos dependem da comunicação, coordenação e mecanismos de resolução de conflitos, os agentes de IA precisarão de estruturas semelhantes.
Uma Janela de Governança para a Europa
A aceleração da implantação da IA sob pressões de mercado está produzindo uma rede de interações e resultados de complexidade sem precedentes. Abordar esses desafios exigirá a avaliação dos aspectos técnicos dos modelos fundamentais de IA que estamos desenvolvendo. Mas, com igual importância, sem um investimento oportuno em governança, esses riscos e resultados serão tanto imprevisíveis quanto difíceis de supervisionar.
Não permitiríamos que navios navegassem ou aeronaves decolassem sem visibilidade, coordenação ou protocolos de prevenção de conflitos. E, no entanto, estamos à beira de fazer isso com sistemas de IA avançados (e atualmente falíveis).
Com a falta de regulamentação no Reino Unido e uma situação incerta nos EUA, é a Europa que pode abrir caminho para a implantação responsável da IA mult-agentes, estabelecendo medidas de governança e infraestrutura para que o mundo siga o mesmo caminho.