Um Roteiro Governamental para IA Ética, Segura e Inteligente
O governo federal busca impulsionar a produtividade através do lançamento da inteligência artificial (IA) em larga escala. Isso inclui a modernização do serviço público com ferramentas de IA. Em princípio, essa iniciativa é bem-vinda. Modelos de IA preditiva poderiam antecipar mudanças nas tendências de saúde, aprimorar previsões fiscais e ajudar a detectar fraudes fiscais, entre outras aplicações.
Ferramentas de processamento de linguagem natural poderiam permitir consultas ampliadas sobre decisões governamentais. No entanto, essas oportunidades vêm com um aviso: sem um lançamento cuidadoso e liderança capacitada em IA, corremos o risco de gastar recursos públicos em ferramentas novas e atraentes em detrimento do progresso real.
Complexidade dos Sistemas de IA
Os sistemas de IA não são ferramentas de “configurar e esquecer”. Estes são sistemas complexos e dinâmicos que levantam preocupações sérias sobre privacidade, ética e responsabilidade. Para funcionar bem, eles exigem equipes de especialistas diversos — desde auditores de algoritmos até consultores de ética.
A inovação em IA também está ocorrendo a uma velocidade impressionante. O mesmo se aplica à forma como gerenciamos e governamos essa tecnologia, com novas técnicas para mitigação de viés e proteção à privacidade surgindo constantemente. Se lançada muito rapidamente e sem conhecimento interno suficiente, a adoção de IA pode representar riscos e os governos podem ficar para trás em relação aos sistemas que esperam controlar.
Construindo Capacidades em Departamentos Governamentais
A criação de um hub centralizado de IA é um passo importante, mas a construção de capacidade nos departamentos governamentais ainda é essencial. Muitos departamentos estão fortalecendo suas capacidades, mas a velocidade do desenvolvimento de IA e o nível de supervisão necessário apresentam um desafio para as equipes que tentam avaliar ferramentas, gerenciar riscos ou decidir onde e como a IA deve ser implantada.
Isso não se trata de transformar departamentos em laboratórios tecnológicos. Trata-se de garantir que as decisões sobre IA sejam fundamentadas em conhecimento e realidades operacionais.
Impacto Ambiental da IA
Não podemos ignorar a enorme pegada de carbono da IA. Um lançamento de IA em todo o governo, sem considerar as emissões, poderia comprometer os compromissos climáticos do país. O governo federal reconheceu esse desafio em sua nova Estratégia de Computação de IA Soberana, que se compromete a construir capacidade de computação controlada pelo Canadá, alimentada por energia limpa. Este é um passo crítico, mas precisa de acompanhamento.
O impacto ambiental deve ser uma restrição de design, e não um pensamento posterior. Isso significa favorecer modelos energeticamente eficientes, instalar infraestrutura em áreas com abundante energia limpa e ser seletivo sobre quando e onde a IA é utilizada.
Governança e Transparência
A credibilidade dos esforços de modernização em IA depende de garantir que a produtividade não venha à custa de metas climáticas ou soberania digital. Cada implantação de IA também deve ser governada por uma supervisão robusta e transparente. Um conjunto crescente de políticas, regulamentos e instituições pode garantir que os sistemas de IA usados em toda a economia sejam transparentes, responsáveis e seguros.
À medida que as ferramentas de IA são configuradas no governo, o mesmo nível de supervisão deve ser aplicado. Isso inclui explicar publicamente como os sistemas funcionam, os riscos que apresentam e como serão monitorados.
No Brasil, essa avaliação de risco antecipada é necessária por meio do que é conhecido como a avaliação de impacto algorítmico, um requisito sob a diretiva sobre decisões automatizadas.
Desenvolvimento de Liderança em IA
Esses desafios mostram que, sem liderança em IA incorporada, os departamentos correm o risco de depender de soluções prontas ou de confiar fortemente em consultores. Isso pode ser caro e insustentável para ferramentas de IA voltadas para políticas que exigem atualizações e adaptações regulares. Cada ministério precisa de liderança interna capaz de alinhar iniciativas de IA com os objetivos do departamento e avaliar onde a IA é apropriada, útil e segura.
É por isso que cada grande departamento governamental deve desenvolver a capacidade de gerenciar a adoção de IA, por exemplo, nomeando um diretor de IA. Esses diretores supervisionariam o desenvolvimento, a implementação e a governança da IA, compartilhando conhecimento para acelerar o aprendizado, tudo em coordenação com o hub centralizado de IA.
Esse modelo de rede de liderança em IA garantiria que a especialização informasse as decisões técnicas e permitiria ao governo tomar decisões mais deliberadas sobre onde o uso da IA é apropriado.
A história orgulhosa do Brasil em pesquisa de IA reflete nossa criatividade e rigor acadêmico. No entanto, a excelência em pesquisa por si só não garante uma implantação segura ou eficaz da IA no setor público — avisos de alguns de nossos mais brilhantes pioneiros da IA atestam essa verdade.
O Caminho a Seguir
O caminho à frente é claro: modernização direcionada e deliberada que incorpora conhecimento em IA, equilibra inovação com princípios éticos e democráticos e trata os impactos ambientais como restrições de design centrais.
Essa abordagem permitiria ao governo modernizar de forma seletiva e estratégica e melhorar os serviços sem sacrificar a equidade, a responsabilidade ou a sustentabilidade.
Qualquer coisa menos que isso e arriscamos trocar dólares dos contribuintes por uma série de experimentos caros cujos benefícios podem nunca se materializar ou, pior, cujos perigos se tornarão muito óbvios.