Princípios Éticos para o Desenvolvimento Responsável de IA

Desenvolvimento Ético de IA: Princípios para Governança Responsável de IA

Um relatório de 2024 do Centro para a Governança da IA da Universidade de Oxford revela que 82% dos americanos e europeus acreditam que robôs e IA devem ser cuidadosamente geridos. As preocupações citadas variam desde o uso da IA em vigilância e na disseminação de conteúdo falso online até ciberataques, violações de privacidade de dados, preconceitos de contratação, veículos autônomos e drones que não requerem um controlador humano.

Recentemente, houve um aumento na atenção aos efeitos negativos que a IA pode produzir em nossa sociedade, desde o acesso desigual a oportunidades até a escalada da polarização em nossas comunidades. Não é surpreendente que tenha havido uma correspondência no aumento da discussão sobre como estabelecer princípios para uma governança responsável de IA.

Viés na IA e suas Implicações

A IA já se mostrou publicamente capaz de viéses prejudiciais — que podem levar a decisões injustas baseadas em atributos protegidos por lei. Existe viés nas entradas de dados, que podem ser mal selecionadas, desatualizadas ou distorcidas de maneiras que incorporam nossos próprios preconceitos sociais históricos. A maioria dos sistemas de IA implantados ainda não incorpora métodos para testar a equidade dos conjuntos de dados ou compensar problemas nas matérias-primas.

Além disso, pode haver viés nos próprios algoritmos e nas características que consideram importantes (ou não). Por exemplo, empresas podem variar seus preços de produtos com base em informações sobre comportamentos de compra. Se essas informações acabarem sendo diretamente correlacionadas ao gênero ou raça, então a IA estará tomando decisões que podem resultar em um pesadelo de relações públicas, sem mencionar problemas legais. À medida que esses sistemas de IA aumentam em uso, eles amplificam qualquer injustiça presente.

Princípios para a Governança Responsável de IA

As empresas também estão se posicionando sobre os tipos de quadros éticos sob os quais operarão. O presidente da Microsoft, Brad Smith, escreveu sobre a necessidade de regulação pública e responsabilidade corporativa em relação à tecnologia de reconhecimento facial. A Google estabeleceu um conselho consultivo de ética em IA. No início deste ano, a Amazon iniciou uma colaboração com a National Science Foundation.

Embora ainda não tenhamos chegado a conclusões definitivas sobre as regulações tecnológicas, os últimos três anos viram um aumento acentuado em fóruns e canais para discutir a governança. O Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), uma organização profissional que estabelece normas para maximizar a confiabilidade de produtos, elaborou um tratado global crowdsourced sobre a ética de sistemas autônomos e inteligentes.

Há uma necessidade de desenvolver uma perspectiva global sobre a ética da IA. Diferentes sociedades ao redor do mundo têm perspectivas muito distintas sobre privacidade e ética. Dentro da Europa, por exemplo, cidadãos do Reino Unido estão dispostos a tolerar a monitorização por câmeras na High Street central de Londres, talvez por causa das bombas do IRA no passado, enquanto os alemães são muito mais orientados para a privacidade, influenciados pelas intrusões dos espiões da Stasi da antiga Alemanha Oriental.

O Papel do Chief AI Ethical Officer

Conforme as empresas investem recursos no design da próxima geração de ferramentas e produtos impulsionados por IA, as pessoas não estão inclinadas a supor que essas empresas automaticamente assumirão suas responsabilidades éticas e legais se esses sistemas falharem.

A época em que as empresas podiam simplesmente pedir ao mundo para confiar na inteligência artificial e produtos baseados em IA já passou. A confiança em relação à IA exige equidade, transparência e responsabilidade. Porém, até mesmo os pesquisadores de IA não conseguem concordar sobre uma única definição de equidade: sempre há a questão de quem está nos grupos afetados e quais métricas devem ser usadas para avaliar, por exemplo, o impacto do viés dentro dos algoritmos.

Como as organizações ainda não descobriram como conter a onda da “má” IA, seu próximo melhor passo é contribuir para a conversa. Negar que a má IA existe ou fugir da discussão não fará o problema desaparecer. Identificar CXOs dispostos a participar do diálogo e encontrar indivíduos prontos para ajudar a estabelecer normas são as ações que as organizações devem considerar hoje. Surge assim a figura do Chief AI Ethical Officer para evangelizar, educar e garantir que as empresas estejam cientes da ética em IA e estejam comprometidas com ela.

Quando feito corretamente, a IA pode oferecer um bem incomensurável. Pode proporcionar intervenções educacionais para maximizar a aprendizagem em comunidades carentes, melhorar os cuidados de saúde com base em nosso acesso a dados pessoais e ajudar as pessoas a desempenhar suas funções de forma mais eficiente. Agora não é o momento de impedir o progresso. Em vez disso, é hora de as empresas se esforçarem para garantir que o design e a implantação da IA sejam justos, transparentes e responsivos a todas as partes interessadas — e fazer parte da formação dos padrões e regulamentos futuros que farão a IA funcionar para todos.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...