Desafios na Implementação de IA Regulatória

Desafios na Implementação de IA Regulada

O recente lançamento da ferramenta interna de IA da FDA, Elsa, é considerado um marco para lidar com a pesada carga da revisão regulatória, onde documentos de milhares de páginas são comuns. No entanto, especialistas em IA regulada apontam que a agência pode enfrentar desafios significativos, especialmente durante a construção da infraestrutura necessária.

A Dificuldade da IA Regulada

De acordo com Erez Kaminski, um especialista em IA regulada, a implementação eficaz de IA em ambientes regulatórios é “incrivelmente difícil”. Um dos principais desafios é a escala dos documentos regulatórios. Embora a ideia de usar IA generativa para revisar documentos pareça simples, a realidade é bem diferente. Documentos regulatórios são muito mais complexos do que tarefas acadêmicas ou muitos documentos legais, que geralmente são “muito mais curtos”, tornando a janela de contexto mais simples.

À medida que se tenta escalar essa abordagem para lidar com contextos de documentos massivos, a complexidade aumenta exponencialmente.

Além da Janela de Contexto

Kaminski argumenta que o problema não se limita apenas ao tamanho dos documentos, mas à arquitetura fundamental do sistema de IA. Embora relatos iniciais sugiram que Elsa baseia-se principalmente em um modelo de linguagem grande (LLM), ele propõe que uma estratégia mais eficaz envolveria uma estrutura neuro-simbólica, que combina o poder de reconhecimento de padrões das redes neurais modernas com a lógica estruturada e baseada em regras da IA simbólica tradicional.

Essa abordagem híbrida permitiria que o sistema dividisse o processo de revisão em uma sequência lógica de etapas menores e verificáveis, semelhante a um fluxograma, utilizando IA generativa para executar tarefas específicas onde ela se destaca.

A Enchente de Documentação

Desenvolver produtos regulados é um processo inerentemente complexo. Kaminski compara o fluxo de trabalho de um jornalista, que envolve cerca de 10 a 20 etapas desde a entrevista até a publicação, ao processo de desenvolvimento de um medicamento, que possui uma complexidade muitas vezes maior. Cada decisão, desde o design até os testes, gera um caminho ramificado de requisitos documentais.

Dados do relatório Numetrics R&D Analytics da McKinsey mostram que, entre 2006 e 2016, a complexidade do software de dispositivos médicos cresceu a uma taxa composta anual de 32%, enquanto a produtividade aumentou apenas 2% ao ano.

Uma Combinatória de Humanos e IA

A FDA enfrenta desafios significativos em sua força de trabalho, com reduções recentes afetando múltiplos centros, o que agrava as pressões de pessoal. A rotatividade na agência se mantém em torno de 13% desde o ano fiscal de 2018. Nesse contexto, os avaliadores muitas vezes lutam para acompanhar o volume imenso de informações.

Kaminski defende que, em vez de depender apenas de modelos de linguagem grandes, que processam texto sequencialmente por meio do reconhecimento de padrões, é fundamental combiná-los com a IA simbólica, que utiliza regras explícitas para navegar em árvores de decisão complexas.

Rumo à Autonomia Responsável

Kaminski prevê que a FDA precisará evoluir sua abordagem à medida que a complexidade dos documentos continua a superar a capacidade de revisão humana. A agência, juntamente com outras que trabalham com IA em contextos regulatórios, precisará unir abordagens neurais e neuro-simbólicas.

O objetivo da indústria é alcançar uma “autonomia responsável”, onde a IA pode operar de forma independente, mas dentro de limites claramente definidos. A beleza da IA reside em sua capacidade de aliviar a complexidade, mas isso só é possível se pudermos rastrear suas decisões, validar suas ações e garantir sua segurança em cada etapa.

Quando implementadas com a infraestrutura de rastreabilidade e os protocolos de validação exigidos por indústrias reguladas, os ganhos de eficiência podem ser dramáticos. Por exemplo, processos de lançamento de software que antes levavam um ano podem ser reduzidos para apenas uma semana.

Kaminski destaca que o volume de papelada é uma das principais razões pelas quais não conseguimos melhores medicamentos e que uma combinação de humanos e máquinas pode transformar essa realidade.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...