Desafios na Implementação de IA Regulatória

Desafios na Implementação de IA Regulada

O recente lançamento da ferramenta interna de IA da FDA, Elsa, é considerado um marco para lidar com a pesada carga da revisão regulatória, onde documentos de milhares de páginas são comuns. No entanto, especialistas em IA regulada apontam que a agência pode enfrentar desafios significativos, especialmente durante a construção da infraestrutura necessária.

A Dificuldade da IA Regulada

De acordo com Erez Kaminski, um especialista em IA regulada, a implementação eficaz de IA em ambientes regulatórios é “incrivelmente difícil”. Um dos principais desafios é a escala dos documentos regulatórios. Embora a ideia de usar IA generativa para revisar documentos pareça simples, a realidade é bem diferente. Documentos regulatórios são muito mais complexos do que tarefas acadêmicas ou muitos documentos legais, que geralmente são “muito mais curtos”, tornando a janela de contexto mais simples.

À medida que se tenta escalar essa abordagem para lidar com contextos de documentos massivos, a complexidade aumenta exponencialmente.

Além da Janela de Contexto

Kaminski argumenta que o problema não se limita apenas ao tamanho dos documentos, mas à arquitetura fundamental do sistema de IA. Embora relatos iniciais sugiram que Elsa baseia-se principalmente em um modelo de linguagem grande (LLM), ele propõe que uma estratégia mais eficaz envolveria uma estrutura neuro-simbólica, que combina o poder de reconhecimento de padrões das redes neurais modernas com a lógica estruturada e baseada em regras da IA simbólica tradicional.

Essa abordagem híbrida permitiria que o sistema dividisse o processo de revisão em uma sequência lógica de etapas menores e verificáveis, semelhante a um fluxograma, utilizando IA generativa para executar tarefas específicas onde ela se destaca.

A Enchente de Documentação

Desenvolver produtos regulados é um processo inerentemente complexo. Kaminski compara o fluxo de trabalho de um jornalista, que envolve cerca de 10 a 20 etapas desde a entrevista até a publicação, ao processo de desenvolvimento de um medicamento, que possui uma complexidade muitas vezes maior. Cada decisão, desde o design até os testes, gera um caminho ramificado de requisitos documentais.

Dados do relatório Numetrics R&D Analytics da McKinsey mostram que, entre 2006 e 2016, a complexidade do software de dispositivos médicos cresceu a uma taxa composta anual de 32%, enquanto a produtividade aumentou apenas 2% ao ano.

Uma Combinatória de Humanos e IA

A FDA enfrenta desafios significativos em sua força de trabalho, com reduções recentes afetando múltiplos centros, o que agrava as pressões de pessoal. A rotatividade na agência se mantém em torno de 13% desde o ano fiscal de 2018. Nesse contexto, os avaliadores muitas vezes lutam para acompanhar o volume imenso de informações.

Kaminski defende que, em vez de depender apenas de modelos de linguagem grandes, que processam texto sequencialmente por meio do reconhecimento de padrões, é fundamental combiná-los com a IA simbólica, que utiliza regras explícitas para navegar em árvores de decisão complexas.

Rumo à Autonomia Responsável

Kaminski prevê que a FDA precisará evoluir sua abordagem à medida que a complexidade dos documentos continua a superar a capacidade de revisão humana. A agência, juntamente com outras que trabalham com IA em contextos regulatórios, precisará unir abordagens neurais e neuro-simbólicas.

O objetivo da indústria é alcançar uma “autonomia responsável”, onde a IA pode operar de forma independente, mas dentro de limites claramente definidos. A beleza da IA reside em sua capacidade de aliviar a complexidade, mas isso só é possível se pudermos rastrear suas decisões, validar suas ações e garantir sua segurança em cada etapa.

Quando implementadas com a infraestrutura de rastreabilidade e os protocolos de validação exigidos por indústrias reguladas, os ganhos de eficiência podem ser dramáticos. Por exemplo, processos de lançamento de software que antes levavam um ano podem ser reduzidos para apenas uma semana.

Kaminski destaca que o volume de papelada é uma das principais razões pelas quais não conseguimos melhores medicamentos e que uma combinação de humanos e máquinas pode transformar essa realidade.

More Insights

AI e Cibersegurança: Desafios da Responsabilidade

À medida que as organizações adotam a inteligência artificial (IA) para impulsionar a inovação e transformar operações, devem também lidar com a realidade de que a IA está rapidamente moldando o...

Abordagem Inteligente para a Governança da IA

O Sr. Sak afirma que a legislação iminente visa proteger os usuários de riscos potenciais da IA e remover barreiras legais que as leis existentes não conseguem abordar. A Tailândia elaborou princípios...

Inteligência Artificial e Governança: Desafios e Oportunidades

Gillian K. Hadfield foi nomeada Professora Distinta Bloomberg de Alinhamento e Governança de IA na Universidade Johns Hopkins. Ela é reconhecida internacionalmente por sua pesquisa pioneira em...

Governança Ética e Inclusiva da IA na Indonésia

O Ministério da Comunicação e Digital da Indonésia reafirmou seu compromisso em incorporar princípios éticos e inclusão em suas políticas de inteligência artificial (IA). O vice-ministro Nezar Patria...

Texas Implementa a Lei de Governança Responsável de IA

Em 22 de junho de 2025, o governador Abbott assinou a Lei de Governança de Inteligência Artificial Responsável do Texas (TRAIGA), tornando o Texas o terceiro estado dos EUA a adotar uma legislação...