Preservando a Autoridade Estadual na Governança da IA

O Congresso Deve Preservar a Autoridade Estadual na Governança da IA

A inteligência artificial está transformando rapidamente a forma como os governos atendem seus cidadãos — desde a otimização de respostas a emergências até a simplificação de licenciamento e zoneamento. No entanto, à medida que os sistemas de IA se tornam mais poderosos e difundidos, a questão de como governar essas ferramentas de maneira responsável é imediata.

A urgência dessa questão aumentou nos últimos meses. Uma ordem executiva vazada da administração anterior propõe bloquear os estados de impor suas próprias regulamentações de IA, e a liderança da Câmara está considerando incluir uma linguagem semelhante no Ato de Autorização de Defesa Nacional. Enquanto isso, a nova lei de IA da Califórnia provocou uma reação federal, e um senador anunciou que apresentará legislação desafiando-a diretamente.

Impacto da IA nas Decisões Estaduais

A governança da IA deve considerar o impacto que essa tecnologia tem nas decisões em nível estadual. Os responsáveis em governos federais, estaduais e locais têm a responsabilidade cívica de maximizar os benefícios sociais enquanto mitigam potenciais danos para suas respectivas comunidades. Por exemplo, os estados têm requisitos únicos para atender seus cidadãos em serviços de planejamento, zoneamento e licenciamento.

A IA afeta muitos serviços locais, mas uma abordagem única não funciona para tarefas geoespaciais e de detecção de objetos, como o planejamento de ciclovias ou a detecção de buracos. Os estados gerenciam serviços diversos — resposta a emergências, habitação, educação, saúde, utilidades e segurança pública — onde a IA deve estar alinhada com as leis, necessidades e condições locais para ser eficaz.

Riscos da Centralização da Governança

Uma estrutura federal de governança pode melhor atender às necessidades de empresas inovadoras que estão rapidamente desenvolvendo e implementando sistemas de IA. Contudo, o Congresso deve reconhecer que uma estrutura nacional precisa incluir mais do que uma moratória sobre as leis estaduais. A IA não se encaixa perfeitamente nas regulamentações existentes, e abordagens inovadoras para mitigar danos são necessárias para equilibrar a promessa da IA com seu uso indevido.

Se o Congresso impor uma suspensão na regulamentação estadual de IA, isso limitará a capacidade das agências estaduais de mitigar questões em saúde, zoneamento, licenciamento, educação, transporte e policiamento. A remoção dessa autoridade pode levar a efeitos colaterais indesejados.

Um desses efeitos seria o aumento de sistemas não verificados nos processos de aquisição. Em um vácuo regulatório, fornecedores podem oferecer “soluções” de IA não validadas a oficiais que podem não ter a capacidade técnica para distinguir qualidade de exagero, corroendo ainda mais a confiança pública na IA.

Outro efeito seria o aumento de custos e complexidade para as agências estaduais. Sem a autoridade para estabelecer suas próprias proteções, os governos estaduais e locais dependeriam de soluções contratuais ad hoc, exatamente o tipo de emaranhado que o Congresso afirma estar tentando evitar.

Empoderamento dos Estados

Em vez de marginalizar os estados, o Congresso deve empoderá-los. Muitos estados já estão testando misturas de incentivos — transparência, responsabilidade, contestabilidade — com parcerias público-privadas. Os estados podem criar regulamentações responsivas e agir rapidamente sobre os danos emergentes da IA, prevenindo crises nacionais. Apoiar a inovação liderada pelos estados, adaptada às condições locais, pode amplificar a liderança dos EUA em IA no mundo.

As empresas de IA, compreensivelmente, querem evitar um emaranhado de regulamentações conflitantes, mas a ameaça maior hoje é a ausência de salvaguardas claras e aplicáveis. Sem padrões definidos, as empresas podem exagerar as capacidades de produtos, rotular software como “IA” apenas para contornar a supervisão, ou evitar implementar IA em áreas críticas devido a preocupações de segurança.

Conclusão

O futuro da governança da IA depende da colaboração. O Congresso deve rejeitar propostas que bloqueiem as leis estaduais de IA e, em vez disso, trabalhar com os estados para desenvolver um modelo de governança compartilhado que proteja o público enquanto incentiva a inovação responsável. Empoderar os estados não é um obstáculo ao progresso, mas sim uma forma de garantir que a IA fortaleça as comunidades, em vez de enfraquecer as instituições que as servem.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...