Modelo de Comportamento: Guia da FDA e EMA para um Bom Uso de IA no Desenvolvimento de Medicamentos
A FDA (Administração de Alimentos e Medicamentos dos EUA) e a EMA (Agência Europeia de Medicamentos) emitiram uma declaração conjunta que delineia 10 “Princípios Orientadores” para o uso de inteligência artificial (IA) no desenvolvimento de medicamentos. Esses princípios se aplicam a patrocinadores, organizações de pesquisa e fabricação contratadas, fornecedores de software e dados, e outros parceiros que projetam, validam, implementam ou dependem de IA em trabalhos regulamentados.
O que foi divulgado
A declaração apresenta 10 princípios sobre como a IA deve ser projetada, utilizada e gerenciada ao gerar ou analisar evidências no desenvolvimento de medicamentos. A FDA afirma que esses princípios são essenciais para lidar com os desafios únicos das aplicações de IA nesse campo, permitindo que o potencial da IA seja plenamente realizado, garantindo a confiabilidade das informações para a segurança dos pacientes.
Importância para as Interações com a FDA e EMA
A FDA e a EMA focam na confiabilidade e completude das evidências que fundamentam as decisões. Embora os novos princípios não alterem a legislação existente, as agências afirmam que eles se alinham com práticas já utilizadas pelos reguladores. A declaração deixa claro que os patrocinadores e seus parceiros devem esperar perguntas dos reguladores sobre como e de onde os dados são gerados, como foram processados e como o modelo foi testado para mostrar que funciona para seu propósito pretendido.
Os 10 Princípios em Linguagem Simples
Os 10 princípios se dividem em cinco temas gerais:
- Design Centrado no Humano
A IA deve ser construída e utilizada de maneiras que reflitam valores éticos e humanos. Os patrocinadores devem pensar sobre como a tecnologia de IA pode afetar pacientes e usuários, construindo proteções desde o início.
- Controle Baseado em Risco
Cada uso de IA deve ter um contexto de uso claro que explique o que faz e como seus resultados serão utilizados. As decisões devem ser feitas com base no nível de risco que o modelo apresenta.
- Alinhamento com Normas e Especialização Adequada
O trabalho com IA deve seguir normas legais, éticas, técnicas e regulatórias aplicáveis, incluindo Boas Práticas Clínicas e Boas Práticas de Fabricação. É aconselhável utilizar uma combinação de habilidades durante o ciclo de vida da IA.
- Práticas Sólidas de Dados e Modelos
Os patrocinadores precisam rastrear e documentar fontes de dados, etapas de processamento e escolhas analíticas de forma detalhada e verificável, garantindo que as proteções de privacidade sejam adequadas.
- Avaliação Rigorosa e Controle do Ciclo de Vida
A avaliação de desempenho deve considerar como as pessoas interagem com a IA em fluxos de trabalho do mundo real. A comunicação com usuários e partes interessadas deve ser clara e em linguagem simples.
Compatibilidade com os Requisitos Existentes da FDA e EMA
Esses princípios se encaixam nas estruturas que a FDA e a EMA já utilizam para avaliar a integridade dos dados, qualidade do produto e segurança do paciente. A ênfase na documentação e na validação é consistente com as expectativas de rastreabilidade e auditabilidade que já existem.
Esses princípios não requerem novas regras, pois podem ser implementados através de processos e controles existentes, ajudando a garantir que os processos suportados por IA produzam resultados confiáveis e auditáveis ao longo do ciclo de vida dos medicamentos.