O Que as Organizações Precisam para Curar Responsavelmente a IA
As organizações utilizam inteligência artificial (IA) de diversas formas, muitas vezes sem perceber as implicações de suas ações. O desafio é como essas organizações podem garantir que suas práticas em IA sejam responsáveis.
Um aspecto central é o ganho de confiança na IA, que é um desafio socio-técnico, onde a parte mais complexa é a humana. Para abordar essa questão, é necessário um esforço abrangente que pode ser dividido em três componentes principais: pessoas, processos e ferramentas.
Três Princípios Fundamentais
Entre os três componentes, as pessoas representam o maior desafio para alcançar um equilíbrio responsável em IA. É essencial cultivar uma cultura organizacional que favoreça a curadoria responsável da IA.
Princípio 1: Humildade
O primeiro princípio é abordar o espaço da IA com tremenda humildade. Os membros de uma organização precisam estar abertos a aprender e desaprender, especialmente no que diz respeito a quem deve participar das conversas sobre IA. É crucial que profissionais de diversas disciplinas e experiências estejam incluídos na discussão, promovendo uma abordagem holística.
Além disso, é fundamental proporcionar segurança psicológica aos colaboradores para que se sintam à vontade para discutir temas difíceis relacionados à IA.
Princípio 2: Perspectivas Diversas
O segundo princípio enfatiza a importância de reconhecer que as pessoas vêm de experiências de vida variadas e que todas as perspectivas são relevantes. As organizações devem respeitar e valorizar a diversidade de suas equipes, não apenas em termos de gênero, raça ou etnia, mas também em relação às experiências de vida que moldam suas visões.
Conforme destacado, é crucial incluir pessoas com experiências de vida diversas nas discussões sobre a adequação e a eficácia das soluções de IA, questionando aspectos como o tipo de dados utilizados e as possíveis consequências.
Princípio 3: Multidisciplinaridade
Por fim, as equipes responsáveis pela criação e governança dos modelos de IA devem ser multidisciplinares. Isso implica reunir profissionais de diversas áreas, como sociologia, antropologia e direito, para garantir uma abordagem responsável na construção da IA.
Reconhecimento de Viés
Um dos mitos mais comuns sobre IA é que 100% do esforço se concentra na codificação. Na verdade, mais de 70% do trabalho envolve determinar se os dados utilizados são apropriados. A natureza dos dados é um reflexo da experiência humana, o que implica que todos nós trazemos viés para o processo.
A IA pode ser comparada a um espelho que reflete nossos próprios preconceitos. A verdadeira questão é ter a coragem de olhar para esse reflexo e verificar se ele está em conformidade com os valores da organização.
Promover Transparência
As organizações que gerenciam modelos de IA precisam ser transparentes sobre as decisões que tomam em relação aos dados e metodologias. É essencial criar um documento informativo para as soluções de IA que descreva aspectos importantes, como o uso pretendido, a origem dos dados e a metodologia empregada.
Além disso, as equipes devem ser auto-conscientes e reconhecer quando suas decisões não estão alinhadas com seus valores. Se isso ocorrer, é necessário mudar a abordagem.
Como enfatizado, todos os dados contêm algum nível de viés. O importante é ser transparente sobre por que determinado conjunto de dados foi considerado relevante. A introspecção contínua é vital, uma vez que as perspectivas e os valores evoluem com o tempo.
A confiança em IA é algo que se conquista, não se impõe. É fundamental ter conversas difíceis sobre as origens dos preconceitos e entender que criar um modelo de IA responsável não é um processo linear, mas sim uma jornada que exige trabalho árduo.