Como Lidar com “A Adolescência da Tecnologia” como Adultos
À medida que os Estados Unidos e seus 50 estados debatem como proceder com a governança da inteligência artificial (IA), um CEO de um importante laboratório de IA publicou um ensaio abrangente sobre os principais riscos que ele percebe com os avanços contínuos da IA.
O ensaio enfatiza alguns princípios-chave para proteger contra os piores resultados da IA. A aplicação desses princípios em níveis estadual e federal pode resultar em uma abordagem mais fundamentada e orientada por evidências para a governança da IA. A seguir, avaliaremos essa abordagem e consideraremos como ela pode ser fortalecida.
Quem é o CEO?
O CEO em questão está no topo da lista dos principais responsáveis pela direção do progresso da IA. Ele ocupou posições de alto escalão em empresas líderes de IA por mais de uma década, e suas opiniões sobre políticas de IA têm peso significativo. Ele tem sido especialmente vocal sobre os riscos que a IA apresenta, destacando que se afastou de uma empresa anterior por temer que ela não levasse os aspectos negativos da IA a sério o suficiente.
Princípios para a Governança da IA
O CEO articula vários princípios abrangentes que devem guiar a política de IA:
- Abordagem Orientada por Evidências
Os riscos da IA devem ser discutidos e governados de maneira “realista e pragmática”. Essa abordagem deve ser “sóbria, baseada em fatos e bem equipada para sobreviver a mudanças”. O ensaio enfatiza que a defesa cautelosa de uma abordagem baseada em evidências é essencial, independentemente de ser politicamente popular.
- Humildade e Reconhecimento da Incerteza
É importante reconhecer a incerteza e entender que não se pode prever o futuro com total confiança. As propostas de políticas muitas vezes tratam a IA como uma tecnologia estática e uniforme, o que pode não capturar modelos futuros, que provavelmente serão diferentes em capacidade e confiabilidade.
- Suporte à Inovação e Evitar Danos a Pequenos Players
As regulamentações devem reduzir os obstáculos impostos a pequenas empresas que não atuam na vanguarda da IA. É fundamental que as políticas protejam as startups de encargos excessivos, permitindo que continuem a inovar.
- Intervenção Cirúrgica e Disciplinada
A intervenção deve ser feita da maneira mais cirúrgica possível. A governança da IA deve misturar ações voluntárias de empresas com ações governamentais vinculativas. A intervenção do governo deve ser limitada a situações de falha de mercado, onde as empresas podem enfrentar problemas de ação coletiva.
- Evitar “Doomerismo”
Os formuladores de políticas devem evitar uma mentalidade de “doomerismo”, que acredita que a catástrofe é inevitável. Essa visão leva a ações extremas sem a evidência que as justifique.
Considerações Finais
É importante que os stakeholders em políticas de IA evitem agrupar todas as ferramentas de IA, tratando indiscriminadamente todas como fontes de catástrofes iminentes. A chamada por uma abordagem orientada por evidências é uma crítica necessária à formulação de políticas baseada em sentimentos.
A verdadeira governança “adulta” exige coragem para priorizar a inovação sem exigir permissão para a maioria das aplicações de “IA Boring”, garantindo que a intervenção do regulador seja reservada apenas para riscos empiricamente comprovados na vanguarda.
O teste para qualquer política de IA deve ser se ela fortalece ou subverte nossos valores democráticos centrais. Um ambiente regulatório que favorece incumbentes por meio de altos custos de conformidade pode agravar riscos como concentrações de poder e desigualdade econômica.