Frameworks de IA Responsável: Uma Introdução
À medida que as capacidades da Inteligência Artificial (IA) continuam a evoluir rapidamente, cresce também a necessidade de guardrails éticos claros para guiar seu desenvolvimento e implantação. Desde a mitigação de viés até a proveniência de dados e a garantia de transparência, a demanda por IA responsável passou de um ideal aspiracional para uma necessidade prática, especialmente à luz dos atuais modelos generativos e dos modelos de linguagem de grande porte (LLMs).
Demanda Crescente por Governança Ética
Em resposta a essa demanda crescente por governança ética em IA, numerosos governos, organizações e coalizões lançaram frameworks destinados a ajudar as equipes a avaliar e melhorar a confiabilidade de seus sistemas de IA. No entanto, com tantas diretrizes disponíveis, que vão desde as Diretrizes Éticas da União Europeia para uma IA Confiável até ferramentas desenvolvidas pela OCDE, Canadá e outros, pode ser difícil para desenvolvedores e tomadores de decisão saberem por onde começar ou como aplicar esses frameworks em projetos do mundo real.
Exemplo Prático: Diretrizes da UE
Um exemplo importante a ser abordado é como as Diretrizes Éticas da UE para uma IA Confiável podem ser aplicadas durante um projeto de desenvolvimento de LLMs. Um aspecto crítico da IA responsável é fazer tudo o que for possível para mitigar o viés em nossos dados de treinamento, nos modelos e na forma como utilizamos esses resultados.
A maioria dos modelos tem um treinamento extenso em dados e recursos disponíveis na internet pública, mas muitos desses dados não são sempre da melhor qualidade para treinamento, pois a maioria dos exemplos complexos e desenvolvidos profissionalmente está atrás de paywalls ou firewalls internos.
Mitigação de Alucinações em Modelos Generativos
As frameworks fornecem alguma orientação sobre como mitigar alucinações em modelos generativos, ou se isso ainda é um problema em aberto. Frequentemente, elas se concentram em como fazer melhores promptings, especialmente em instruir o sistema a fornecer apenas informações verificadas. A maioria delas menciona a qualidade dos dados como o primeiro passo, seguido pela inclusão de verificações humanas ao longo do processo e, finalmente, pela educação dos usuários sobre como evitar e identificar alucinações.
Avaliação de Impacto Ético de IA
Uma pergunta frequente é se existe uma maneira leve de conduzir uma Avaliação de Impacto Ético de IA sem uma grande equipe de conformidade envolvida. Existem ferramentas de avaliação que podem ser usadas para ajudar as equipes a iniciar rapidamente, pois não precisam começar do zero. Elas oferecem checklists, templates e outros recursos para ajudar aqueles que não são auditores ou especialistas jurídicos a começarem mais rápido.
Recursos para Aprendizado Adicional
As equipes de blogs de serviços de IA da Azure têm escrito sobre esses tópicos há algum tempo, utilizando uma linguagem simples para explicar os conceitos. Também é recomendado ler as diretrizes públicas de organizações como a UE, OCDE e o governo canadense para um entendimento mais aprofundado.