Comentários sobre a cláusula de IA proposta pela GSA com prazo até 20 de março de 2026
No dia 6 de março de 2026, foi proposta a cláusula GSAR 552.239-7001, intitulada “Proteção Básica de Sistemas de Inteligência Artificial”, pela Administração de Serviços Gerais (GSA). Esta é uma cláusula contratual de primeira linha, destinada a impor requisitos específicos de proteção para a IA por meio de veículos de aquisição. A cláusula está sendo considerada para inclusão nos Contratos do GSA Schedule através da atualização do Multiple Award Schedule (MAS) Refresh 31, marcando uma mudança nas práticas de aquisição federal existentes, uma vez que nenhuma outra agência implementou uma cláusula de governança de IA comparável e independente. Em vez de seguir o processo tradicional de notificação e comentário, a GSA emitiu a cláusula através do processo de comentários do MAS, resultando em um cronograma comprimido para feedback dos interessados, com comentários devidos até 20 de março de 2026.
Se adotada em sua forma atual, a cláusula imporá obrigações contratuais vinculativas que governam o desenvolvimento, a implantação e a gestão de sistemas de inteligência artificial utilizados ou fornecidos sob contratos federais.
Objetivos e Requisitos da Cláusula
A cláusula GSAR 552.239-7001 visa avançar os objetivos federais, enfatizando controle, transparência e responsabilidade em relação à IA. Reflete a crescente preocupação dentro do governo federal sobre a segurança de dados, riscos da cadeia de suprimentos e a natureza opaca de muitos sistemas comerciais de IA. Os contratantes que utilizam IA para análise de dados, geração de conteúdo, automação ou suporte à decisão precisarão garantir que suas práticas estejam alinhadas com essas prioridades.
A cláusula introduz obrigações de divulgação amplas, restrições significativas ao uso de dados, direitos de uso expansivos para o governo e obrigações de conformidade afirmativas para os contratantes. Estas obrigações incluem:
- Uso exclusivo de “Sistemas de IA Americanos” na execução do contrato, ou seja, aqueles desenvolvidos e produzidos nos Estados Unidos (sistemas estrangeiros são expressamente proibidos);
- Divulgação de todos os sistemas de IA utilizados na execução de um contrato ao longo da cadeia de suprimentos, mesmo que nacionais, dentro de 30 dias após a concessão, a menos que solicitado antes pelo oficial de contratos;
- Garantir mecanismos para supervisão, intervenção e feedback do governo;
- Proibir o uso de dados do governo para treinar, aprimorar ou melhorar modelos ou ofertas de IA;
- Proporcionar ao governo direitos de propriedade sobre os resultados e desenvolvimentos de IA;
- Relatar incidentes de segurança ou desempenho rapidamente (dentro de 72 horas) e fornecer atualizações diárias conforme necessário;
- Manter e fornecer, mediante solicitação, documentação relacionada à conformidade com a cláusula, incluindo alinhamento com o NIST AI Risk Management Framework, processos de tomada de decisão do Sistema de IA, eficácia dos controles de privacidade e conformidade com a proibição de processamento de PII, e quaisquer preconceitos conhecidos;
- Garantir portabilidade e interoperabilidade de dados através do uso de formatos de dados abertos e padrões de interfaces de programação de aplicativos (APIs), evitando o uso de tecnologias ou formatos proprietários que exijam licenciamento adicional ou criem dependências de fornecedores;
- Fazer esforços para garantir que os sistemas de IA adiram a princípios de IA imparcial, ou seja, verdadeiros, historicamente precisos, neutros e não partidários.
Implicações e Riscos
Esses requisitos reforçam que o contratante é totalmente responsável por como a IA é utilizada na execução do contrato. A cláusula se aplica amplamente ao uso de IA na execução do contrato e não apenas aos sistemas de IA fornecidos ao governo. Por exemplo, a cláusula define amplamente termos-chave como “Sistema de IA”, “Sistema de IA Americano” e “Fornecedor de Serviços”, o que abrange uma ampla gama de instrumentos, incluindo sistemas desenvolvidos internamente e soluções de IA disponíveis comercialmente utilizadas na execução de contratos governamentais.
A cláusula também limita o uso de dados do governo em conexão com sistemas de IA. Em geral, os contratantes são proibidos de usar dados fornecidos ou gerados pelo governo para treinar, polir ou melhorar modelos de IA. Além disso, a cláusula exige a segregação de dados do governo de outros conjuntos de dados, limitando a retenção, exigindo procedimentos de manuseio de dados que restringem a revisão humana de dados do governo, exceto quando estritamente necessário para fornecer o Sistema de IA, e a exclusão desses dados após a conclusão do contrato, potencialmente com obrigações de certificação.
Próximos Passos e Considerações Finais
Embora a cláusula proposta possa evoluir após a GSA considerar o feedback dos contratantes, ela sinaliza uma mudança significativa na maneira como o governo federal pretende governar a IA. No curto prazo, espera-se que os contratantes se preparem para estabelecer uma estrutura interna de governança de IA, desenvolver inventários internos dos sistemas de IA utilizados na execução do contrato e preparar essas informações para divulgação.
Se adotada, a cláusula poderá servir como um modelo para futuros requisitos de aquisição relacionados à IA em todo o governo federal. Ao incorporar obrigações de governança de IA diretamente nas cláusulas contratuais, as agências podem impor requisitos vinculativos mais rapidamente do que por meio de processos tradicionais de elaboração de normas.
Essa cláusula reflete uma ênfase política no desenvolvimento de IA doméstica e controle da cadeia de suprimentos, o que poderá influenciar como os contratantes selecionam e estruturam suas soluções tecnológicas no futuro.