Estados Podem Liderar na Implementação de IA, Veja Como
Imagine que você é um líder tecnológico em nível estadual. Os recentes avanços em inteligência artificial prometem tornar a aprovação de licenças para pequenas empresas mais rápida, melhorar o aprendizado de alunos do ensino fundamental e médio, ou até mesmo padronizar a conformidade entre agências. Todas essas promessas visam melhorar a experiência dos cidadãos do seu estado. Desejando implantar essa nova tecnologia de forma responsável, você busca orientação de colegas em outros estados. No entanto, as respostas são bastante variadas e, na ausência de diretrizes federais, fica claro que não há um manual padronizado. Você deve traçar o caminho a seguir sozinho, com recursos muito mais limitados.
Esse cenário está se tornando cada vez mais comum à medida que os sistemas de IA estão rapidamente se integrando aos serviços voltados para o consumidor. Sem ação federal sobre IA, os líderes governamentais estaduais estão assumindo a responsabilidade de proteger os consumidores de potenciais danos algorítmicos, enquanto também apoiam a inovação responsável para melhorar a entrega de serviços. Os estados possuem vantagens estruturais que os posicionam para experimentar abordagens regulatórias: ciclos legislativos mais curtos que permitem correções mais rápidas, autoridade para testar programas e o uso de disposições de expiração que facilitam a revisão ou a aposentadoria de modelos de governança em estágio inicial. Isso frequentemente coloca os estados como os reguladores mais ágeis, que podem rapidamente estabelecer limites para tecnologias de IA em evolução que impactam seus residentes.
Desafios da Implementação
No entanto, essa agilidade regulatória deve ser acompanhada da capacidade governamental necessária para ter sucesso. A atual falta de ação federal está forçando os estados não apenas a aprovar novas leis de IA, mas também a enfrentar enormes desafios de implementação, sem a expertise em IA tipicamente encontrada em agências federais ou grandes empregadores privados. Construir essa capacidade dentro dos governos estaduais exigirá recursos e conhecimento técnico que a maioria dos estados apenas está começando a desenvolver. Sem um investimento deliberado em transparência e talento, até mesmo a legislação mais bem elaborada pode não alcançar seus objetivos pretendidos.
Aumento da Transparência para Construir Confiança Pública
Uma das maneiras mais imediatas pelas quais as legislaturas estaduais podem avançar com a legislação que melhora a transparência é com a aprovação e implementação bem-sucedida de inventários de casos de uso. Um inventário de casos de uso é uma publicação pública que apresenta ferramentas algorítmicas e seus usos específicos. Esses inventários divulgam quando e onde os governos estaduais estão utilizando ferramentas algorítmicas em transações voltadas ao consumidor, como aplicações para programas sociais e benefícios públicos. Eles são geralmente realizados pelos governos como um mecanismo de transparência e para facilitar auditorias de resultados por terceiros.
Os benefícios dos inventários de casos de uso de IA são amplos: aumentam a transparência do governo em relação aos resultados de decisões automatizadas, podem fornecer insights valiosos para fornecedores de produtos do setor privado, facilitar auditorias e testes de viés por terceiros, e até aumentar o compartilhamento de melhores práticas entre agências quando as ferramentas de IA são utilizadas de forma eficaz. Eles são particularmente importantes em decisões de alto risco, como aquelas relacionadas a benefícios e serviços governamentais.
Estudo de Caso: Desafios de Implementação na Califórnia
Embora a experiência federal demonstre que os inventários de casos de uso de IA podem funcionar, ela também revela uma limitação importante: os mecanismos de transparência dependem de talento técnico e implementação focada para serem bem-sucedidos. A Califórnia oferece um exemplo cauteloso. Em 2023, a legislatura estadual aprovou uma lei solicitando ao Departamento de Tecnologia do Estado que “realizasse um inventário abrangente de todos os sistemas de decisão automatizada de alto risco [ADS] sendo utilizados pelas agências estaduais e apresentasse um relatório à legislatura até 1º de janeiro de 2025, e anualmente a partir de então.” Importante ressaltar que a lei abrangia sistemas que eram “utilizados para ajudar ou substituir a tomada de decisão discricionária humana.”
No entanto, o prazo de implementação inicial para a lei passou no início de 2025 e o único relatório fornecido ao público afirmava que não havia “ADS [ferramentas] de alto risco sendo utilizadas pelas agências estaduais”—um fato facilmente contestável por uma simples pesquisa na internet. Por exemplo, a troca de saúde do estado utiliza ferramentas de processamento automatizado de documentos para avaliar a elegibilidade para políticas de seguro de saúde acessíveis, e o programa de seguro-desemprego do estado utiliza uma ferramenta algorítmica desenvolvida por uma empresa privada para classificar os candidatos com base na probabilidade de suas aplicações serem fraudulentas.
Construindo Capacidade Técnica
A experiência da Califórnia na implementação de um inventário de casos de uso não é única. Em todo o país, legislações bem-intencionadas muitas vezes são aprovadas, mas falham durante a implementação. Uma vez promulgadas, os funcionários das agências são encarregados de operacionalizar políticas complexas, muitas vezes sem a expertise técnica, capacidade de pessoal ou recursos financeiros necessários para ter sucesso. Sem um investimento deliberado nessas áreas, a responsabilidade de regular adequadamente as tecnologias emergentes e proteger os consumidores de danos é transferida para funcionários do governo que estão mal equipados para lidar com a crescente complexidade técnica de suas cargas de trabalho.
Para que os governos estaduais possam ser os principais responsáveis pela responsabilidade e transparência necessárias para garantir que a IA sirva ao público, e não à erosão das normas democráticas, é crucial que os formuladores de políticas estaduais estabeleçam processos que promovam a transparência e pipelines robustos de talento que possam gerenciar a implementação responsável.
Conclusão
Com a falta de um quadro federal, os governos estaduais serão os principais motores da responsabilidade e transparência necessárias para garantir que a IA sirva ao público. Os estados que construírem inventários transparentes de casos de uso de IA e investirem em expertise técnica estarão melhor posicionados para traduzir princípios regulatórios em proteções reais para seus cidadãos.