Agente de Segurança da AI: Especificações de Código Aberto para Atender às Novas Regulamentações
Recentemente, uma nova iniciativa lançou um conjunto de especificações de segurança para agentes de inteligência artificial, visando auxiliar desenvolvedores e organizações a documentar controles de segurança à medida que se aproximam as datas de implementação das regulamentações da EU e Colorado sobre IA em 2026.
O que é o AI Agent Safety Stack?
O AI Agent Safety Stack consiste em doze especificações de arquivos Markdown de código aberto, que definem protocolos de desligamento, limites de segurança e padrões de responsabilidade para agentes autônomos. Essas especificações são projetadas para ajudar as organizações a documentar os controles de segurança da IA antes dos prazos de aplicação das novas leis.
Contexto Regulatório
As regulamentações da EU sobre sistemas de IA de alto risco e as proteções ao consumidor da Colorado sobre IA estão programadas para entrar em vigor em 2026. Essas leis exigem supervisão humana e a capacidade de interromper ou parar sistemas de IA, além de documentação de avaliação de impacto e gerenciamento de riscos.
As Doze Especificações
As especificações são organizadas em quatro categorias principais:
Controle Operacional
THROTTLE.md — Limitação de taxa, tetos de custo e protocolos de desaceleração automática.
ESCALATE.md — Fluxos de trabalho de aprovação e notificação com supervisão humana.
FAILSAFE.md — Estados de fallback seguros e procedimentos de recuperação.
KILLSWITCH.md — Gatilhos de desligamento de emergência e caminhos de escalonamento.
TERMINATE.md — Desligamento permanente com preservação de evidências.
Segurança de Dados
ENCRYPT.md — Classificação de dados, manuseio de segredos e regras de transmissão.
ENCRYPTION.md — Padrões criptográficos, gerenciamento de chaves e mapeamento de conformidade.
Qualidade de Saída
SYCOPHANCY.md — Detecção de viés de saída e protocolos de desacordo.
COMPRESSION.md — Regras de compressão de contexto e verificação de coerência.
COLLAPSE.md — Detecção de deriva do modelo e pontos de verificação de recuperação.
Responsabilidade
FAILURE.md — Mapeamento de modos de falha e procedimentos de resposta a incidentes.
LEADERBOARD.md — Benchmarking de desempenho de agentes e detecção de regressões.
Disponibilidade
Todas as doze especificações estão disponíveis imediatamente sob uma licença de código aberto. A documentação completa pode ser acessada para detalhamento adicional.
Considerações Finais
Essas especificações são um passo importante para garantir a segurança em um cenário onde agentes autônomos de IA estão se tornando cada vez mais comuns nas organizações. Embora não garantam conformidade com regulamentações, oferecem uma base sólida para que as organizações documentem suas práticas de segurança em um formato auditável e controlável.