Precisamos Parar de Fingir que a Regulamentação da IA Inibe a Inovação
A falta de regulamentação sensata da IA abre a porta para danos reais e arrisca uma oportunidade potencial de $10,3 trilhões para desenvolver e usar IA generativa. Precisamos de diretrizes que incentivem os inovadores a explorar novas tecnologias sem comprometer a confiança pública.
Os esforços para garantir uma inovação responsável em IA têm desviado do caminho. As inovações que vimos em IA até agora são um resultado direto da coleta e uso de dados para o treinamento de modelos. Quando os usuários se sentem protegidos por políticas de dados transparentes e medidas de consentimento, eles estão mais propensos a contribuir com os dados de alta qualidade necessários para avançar a IA.
No entanto, se as empresas negligenciarem a proteção dos usuários, elas ficarão sem “combustível” ou dados para avançar ainda mais.
As Guardrails São Excessivas?
A comunidade global de IA progrediu nos últimos anos sobre como governar a tecnologia de IA para que a inovação não sacrifique a confiança e a segurança dos usuários. A associação comercial IEEE definiu o palco em 2016 com seus princípios de design eticamente alinhados, e a Organização para a Cooperação e Desenvolvimento Econômico adotou seus próprios princípios de IA três anos depois. O AI Bill of Rights da Casa Branca em 2022 foi seguido pela ordem executiva do ex-presidente Joe Biden sobre IA em 2023. Em março passado, a UE aprovou seu AI Act histórico.
No entanto, as declarações do Vice-Presidente JD Vance na Cúpula de IA de Paris no mês passado de que a “regulamentação excessiva do setor de IA poderia matar uma indústria transformadora” colocam a oportunidade de IA contra a segurança. Por que deveríamos ter que escolher entre os dois? Programas de privacidade centrados no usuário constroem uma confiança duradoura entre consumidores e empresas.
Produtos e serviços que priorizam a confiança do consumidor e capacitam a escolha do usuário podem acelerar a inovação em vez de bloqueá-la. Considere os dados biométricos e dispositivos inteligentes. Desde o reconhecimento facial e a digitalização de impressões digitais até assistentes inteligentes sempre ativos e carros conectados, essas tecnologias emergentes continuam a levantar questões de privacidade.
Em resposta, regulamentações como a Biometric Information Privacy Act de Illinois, o Regulamento Geral de Proteção de Dados da UE e a Lei de Segurança de IoT da Califórnia intervieram para estabelecer regras mais claras sobre coleta, armazenamento e compartilhamento de dados. Isso ajudou a tranquilizar o público, levando a uma maior adoção de tecnologias como verificação de identidade digital, dispositivos de saúde vestíveis e assistentes domésticos inteligentes.
Regulando Danos Conhecidos
A subregulamentação da tecnologia tem consequências preocupantes. Carros autônomos de empresas chinesas percorreram milhões de milhas coletando quantidades incontáveis de informações sobre cidadãos dos EUA porque o país carece de leis que governem especificamente tecnologias oriundas de países adversários que podem estar coletando tais dados.
Em contraste, o AI Act da UE coloca guardrails necessários em torno de tecnologias de IA com danos conhecidos, como vigilância biométrica em espaços públicos, policiamento preditivo ou sistemas de reconhecimento emocional no local de trabalho ou escolas.
O risco de discriminação racial pela tecnologia de reconhecimento facial é bem documentado. Em 2020, a polícia de Detroit prendeu Robert Williams, um homem negro, após um software de reconhecimento facial identificá-lo erroneamente como suspeito de furto. Três anos depois, a mesma força policial confiou em outra correspondência falha, acusando erroneamente Porcha Woodruff, uma mulher negra grávida, de roubo de carro.
Em vez de inibir a inovação, as regulamentações pressionam as empresas a continuar melhorando seus produtos. As leis de privacidade forçaram as empresas a repensar a coleta e o uso de dados e a inovar em áreas como criptografia, minimização de dados e gerenciamento de consentimento do usuário, levando a uma segurança mais forte, melhor confiança do consumidor e novos modelos de negócios.
Por exemplo, a Apple introduziu proteção avançada de dados para criptografia de ponta a ponta de categorias de dados do iCloud além de senhas e informações de saúde protegidas. As regulamentações de consentimento do usuário criaram novas tecnologias de startups a grandes empresas como a IBM que governam todo o ciclo de vida das permissões do usuário – desde a captura inicial e armazenamento até o manuseio de solicitações de acesso a dados granulares e exclusão.
Inovação e Confiança
Regulamentações como o AI Act da UE que buscam abordar os riscos mais críticos da tecnologia emergente não são exemplos de exagero governamental. Nenhuma regulamentação é perfeita, mas essas leis podem servir como modelos para uma legislação significativa nos EUA que promova a confiança pública e a adoção de IA.
Os EUA não assinaram declarações na Cúpula de Paris que delineiam abordagens conjuntas para mitigação de riscos da IA e desenvolvimento ético da IA. Isso é preocupante, dada a postura desreguladora da administração atual e a revogação da ordem executiva de Biden sobre o uso e desenvolvimento seguro da IA.
O futuro da liderança em IA dos EUA depende de forjar um caminho onde a inovação e a governança responsável coexistam. A história prova que a confiança – construída através de práticas de dados transparentes e guardrails práticos – é a moeda do progresso. Estruturas que priorizam a segurança tranquilizarão os usuários e capacitarão os inovadores a experimentar.