A ética da IA precisa de disposições humanas, não códigos universais
Os esforços para governar a inteligência artificial (IA) se concentraram principalmente em prevenir danos e garantir conformidade, mas especialistas alertam que a ética vai além da regulamentação. Em muitas situações do dia a dia, os sistemas de IA devem navegar por escolhas morais que dependem de valores individuais, em vez de mandatos legais.
Desafios da ética individual no mundo digital
Um estudo intitulado “Ética individual e disposições no mundo digital” propõe um modelo computacional para incorporar preferências morais pessoais em sistemas de IA. A pesquisa argumenta que a ética da IA deve levar em conta como os indivíduos diferem em seus julgamentos, mesmo quando operam sob o mesmo quadro legal.
Esse estudo surge em meio a esforços regulatórios crescentes, incluindo a Lei da IA da União Europeia, que prioriza segurança, responsabilidade e conformidade legal. Embora tais estruturas estabeleçam limites não negociáveis para o comportamento da IA, os autores afirmam que a regulamentação sozinha não pode abordar a diversidade ética da tomada de decisões humanas reais. Em vez disso, propõem um modelo formal que permite que os sistemas de IA se adaptem às preferências morais dos usuários individuais, permanecendo dentro das restrições legais e éticas.
Por que a ética universal da IA é insuficiente na vida cotidiana
O debate público sobre a ética da IA frequentemente se concentra em cenários extremos, como armas autônomas ou decisões de vida e morte feitas por carros autônomos. No entanto, os autores desviam o foco para uma realidade mais silenciosa, mas mais abrangente: os sistemas de IA atuam cada vez mais como parceiros digitais em situações cotidianas carregadas de moral que moldam a vida diária.
Essas situações incluem decidir se priorizar produtos éticos em vez de alternativas mais baratas, se economizar energia à custa do conforto pessoal ou como mediar a equidade em serviços públicos. Nestes contextos, as decisões éticas raramente são binárias ou universais. Elas dependem de valores pessoais, normas sociais, experiências vividas e contexto situacional.
O estudo desafia a suposição de que incorporar um código ético fixo em sistemas de IA é suficiente. Em vez disso, posiciona a ética como algo que emerge através da interação. Os indivíduos não aplicam simplesmente princípios morais abstratos; eles agem com base em tendências moldadas por experiências, ambiente social e contexto. Capturar essa realidade requer uma mudança de uma ética baseada em regras rígidas para o que o estudo descreve como “ética suave”.
Modelagem do comportamento moral através de disposições
A pesquisa discute o conceito de disposições morais, extraído de teorias filosóficas sobre propriedades disposicionais. Uma disposição reflete como um indivíduo tende a agir quando certas condições são atendidas, sem garantir que a ação ocorrerá sempre. Coragem, generosidade e justiça são exemplos clássicos de disposições. Elas descrevem tendências, não resultados fixos.
Os autores aplicam essa estrutura à ética em ambientes digitais. Em vez de tratar preferências morais como regras explícitas, modelam-nas como disposições que podem se manifestar dependendo do contexto. Essa abordagem reconhece que as pessoas podem se comportar de maneira inconsistente sem perder sua identidade moral. Uma pessoa pode ser geralmente prestativa, mas falhar em agir generosamente em uma situação estressante. A disposição permanece, mesmo que não se manifeste.
Para operacionalizar essa ideia, os pesquisadores propõem um método estruturado para elicitar disposições morais individuais usando questionários baseados em cenários. Os participantes são apresentados a dilemas éticos cotidianos e convidados a escolher um curso de ação, justificando sua escolha em quatro dimensões avaliativas: consequências para os outros, consequências para si mesmo, alinhamento com normas sociais e alinhamento com a experiência pessoal.
Da pesquisa à ação ética em sistemas de IA
A pesquisa apresenta um modelo computacional formal que traduz as respostas humanas em perfis éticos legíveis por máquinas. Esses perfis permitem que os sistemas de IA reconheçam quais ações melhor se alinham às tendências morais de um usuário em novas situações.
O modelo vincula três elementos: uma descrição do cenário do mundo, um conjunto de ações possíveis e uma ação preferida que reflete a disposição do usuário nesse contexto. Quando uma situação semelhante surge, o sistema de IA pode comparar o novo contexto com aqueles encontrados anteriormente e selecionar a ação mais consistente com o perfil ético do usuário.
Os autores não assumem racionalidade ou consistência perfeitas. Rejeitam explicitamente as suposições tradicionais da teoria da decisão que frequentemente falham em refletir o comportamento humano. Em vez disso, o modelo acomoda a sensibilidade ao contexto, influências concorrentes e até contradições.
O estudo também permite múltiplas formas de resolver incertezas quando não existe uma correspondência exata entre uma nova situação e disposições passadas. Designers de IA ou usuários podem optar por abordagens conservadoras, seleção aleatória ou raciocínio baseado em similaridade, dependendo da aplicação. Essa flexibilidade é apresentada como uma força, em vez de uma fraqueza.
Equilibrando personalização e salvaguardas éticas
Embora a personalização seja frequentemente apresentada como um bem indiscutível no design de IA, os autores adotam uma postura mais cautelosa. Reconhecem que preferências pessoais podem ser tendenciosas, prejudiciais ou em conflito com normas sociais.
Por essa razão, o modelo opera explicitamente dentro de limites éticos rígidos. Requisitos legais e direitos fundamentais permanecem não negociáveis. Preferências que violam essas restrições não podem ser implementadas, mesmo que sejam capturadas com precisão. Os autores argumentam que elicitar tais preferências ainda é valioso, pois fornece insights sobre a complexidade do raciocínio moral humano.
O estudo desafia a ideia de perfilagem ética como mera personalização, apresentando-a como uma ferramenta para recuperar a agência do usuário diante da tomada de decisão algorítmica opaca. Permitindo que os indivíduos expressem e refinem suas preferências morais, o modelo busca reequilibrar o poder entre usuários e sistemas digitais.
Implicações para políticas, design e governança da IA
Para o público geral, a pesquisa desafia narrativas simplistas sobre ética da IA. Redefine a ética da IA não como um problema a ser resolvido de uma vez por todas, mas como uma negociação contínua entre indivíduos, tecnologia e instituições.
Para os formuladores de políticas, destaca os limites da regulamentação na formação do comportamento ético. As leis podem proibir danos, mas não podem ditar como os indivíduos priorizam equidade, generosidade ou responsabilidade em situações ambíguas. Sistemas que ignoram essa lacuna correm o risco de alienar usuários e erodir a confiança.
Para os desenvolvedores de IA, o estudo oferece um caminho concreto em direção ao design centrado no humano. Incorporando disposições éticas em vez de regras fixas, os sistemas podem se tornar mais adaptáveis, transparentes e respeitosos com a autonomia do usuário. A natureza formal do modelo também o torna compatível com práticas existentes de engenharia de software.