Não Ensine os Robôs a Mentir

Não Ensine os Robôs a Mentir

Recentemente, o Texas se tornou o segundo estado a aprovar uma lei que proíbe a discriminação algorítmica, ou seja, sanções para operadores de sistemas de IA que, de forma injusta, negam um empréstimo bancário, uma segunda entrevista de emprego ou uma apólice de seguro. Espera-se que não haja um terceiro estado a adotar tais medidas. Essas regulamentações podem ser catastróficas para a verdade, inovação e, em última instância, para a liberdade humana.

A Lei Responsável de Governança de IA do Texas

A lei, que entra em vigor em janeiro do próximo ano, proíbe a criação intencional ou o uso de IA de uma maneira que “infrinja, restrinja ou impeça” um direito constitucional ou discrimine com base em uma classe protegida. Aqueles que forem encontrados criando tal IA enfrentam multas e ações da procuradoria geral do estado.

Por outro lado, a lei de Proteções ao Consumidor para Inteligência Artificial do Colorado, que será efetiva em fevereiro do próximo ano, exige que qualquer sistema de IA “de alto risco” que desempenhe um “papel substancial” em uma “decisão consequente” passe por avaliações rigorosas anuais e contínuas, planejamento de mitigação de riscos e auditorias constantes para potenciais preconceitos.

Impacto das Leis

Ambas as leis são aplicadas exclusivamente pelos procuradores gerais de seus respectivos estados, o que significa que não permitem que indivíduos processem por alegadas violações. No Texas, o escritório do procurador geral deve criar um portal público para aceitar reclamações; as penalidades podem chegar a $200.000 ou $40.000 por dia por violações contínuas. As violações da lei do Colorado são tratadas sob a Lei de Práticas Comerciais Desleais ou Enganosas, que autoriza multas de até $20.000 por violação.

Essas leis visam impedir que sistemas de IA se envolvam na discriminação algorítmica, ou tratem diferentes grupos de forma injusta. Contudo, isso implica que os desenvolvedores de IA deverão antecipar cada impacto desigual que seus sistemas possam gerar e ajustar suas ferramentas em conformidade. Isso pode significar que os desenvolvedores terão que treinar seus modelos para evitar verdades desconfortáveis e garantir que suas respostas soem como se fossem criadas sob supervisão de departamentos jurídicos e de recursos humanos.

A Moralidade e a Verdade

Há uma panic moral impulsionando esse tipo de legislação: a ideia de que se um modelo diz algo indelicado ou produz resultados desiguais, deve ser uma ameaça aos direitos civis. No entanto, sistemas otimizados para litígios em vez de realidade devem nos preocupar ainda mais. Ensinar às máquinas que a verdade é secundária à conformidade legal é um caminho perigoso que pode levar à ocultação de evidências de risco.

As leis de discriminação algorítmica incorporam um tipo de covardia que já afeta muitas de nossas instituições públicas e privadas. A pressão para conformidade que existe nas universidades está agora sendo imposta aos sistemas que dominarão a busca pela verdade no futuro.

As Consequências para o Futuro da IA

Se as máquinas se tornarem mais inteligentes do que nós, o que realmente deve nos preocupar é que as ensinemos nossos piores hábitos — o medo de falar claramente, a obsessão por evitar culpa e a disposição de distorcer os fatos para se adequar à moralidade atual. Precisamos ensinar a IA a evitar alucinações, não a curar suas alucinações para garantir que sejam politicamente corretas.

A polidez é uma virtude, sem dúvida, mas não deve ser sacrificada em nome da realidade. Se os sistemas de IA produzirem resultados que sejam usados pelos humanos de maneira discriminatória, já existem leis tradicionais para impedir isso. Ensinar máquinas que podem, em breve, superar nossa inteligência que é aceitável — ou até necessário — distorcer a verdade para evitar exposição legal ou ofender sentimentos é um erro. A compromisso com a verdade não é apenas um valor acadêmico; é essencial para o futuro.

Se coerções legais forem impostas às empresas de IA para distorcer a realidade em nome de normas vagamente definidas de “justiça” ou “impacto desigual”, não estaremos prevenindo apocalipses tecnológicos. Estaremos programando-os.

More Insights

Sistema de Gestão de Risco na Lei de IA da UE

O Ato de Inteligência Artificial da União Europeia (UE) estabelece um sistema de gestão de riscos obrigatório para provedores de IA de alto risco, visando proteger a saúde, a segurança e os direitos...

Riscos Ocultos dos Agentes de IA na Governança

Dalen acredita que agora é necessária uma governança específica para a IA para essa nova geração de ferramentas, a fim de garantir que sejam implantadas de forma responsável e tragam valor...