7 Passos para Investigadores Clínicos Implementarem um Sistema de Governança de IA Robusto
O uso de inteligência artificial (IA) em investigações clínicas está se tornando cada vez mais comum, mas isso vem com desafios e responsabilidades que devem ser cuidadosamente gerenciados. Neste contexto, é essencial que os investigadores clínicos implementem um sistema de governança de IA robusto para mitigar riscos, como violações de segurança de dados ou privacidade.
Um sistema de governança eficaz envolve uma combinação de medidas técnicas, procedimentais e organizacionais que protegem informações sensíveis dos pacientes e garantem que as ferramentas de IA utilizadas nas pesquisas clínicas operem dentro das diretrizes regulatórias.
Se um investigador clínico estiver utilizando uma ferramenta de IA e dependendo de uma empresa para grande parte da governança de IA, ainda há várias etapas importantes que devem ser seguidas para garantir o uso responsável, ético e em conformidade da ferramenta de IA, bem como para proteger os dados dos pacientes e manter a confiança. Esses passos incluem:
1. Compreender a Ferramenta de IA e Suas Capacidades
- Realizar uma revisão minuciosa da(s) ferramenta(s) de IA: Compreender o uso pretendido, limitações e categorias de risco. Isso inclui revisar a documentação fornecida pela empresa, como manuais do usuário, avaliações de risco e métricas de desempenho.
- Confirmar a conformidade regulatória: Verificar se a ferramenta de IA está em conformidade com as regulamentações e normas de saúde relevantes (por exemplo, HIPAA nos EUA, Lei de IA da UE ou GDPR na UE, ou diretrizes da FDA ou EMA para IA em dispositivos médicos).
- Avaliar viés e equidade: Compreender os dados nos quais a ferramenta de IA foi treinada e se estes refletem populações diversas para evitar resultados tendenciosos.
2. Desenvolver e Implementar Políticas Específicas para IA
- Definir quais ferramentas de IA são permitidas: Especificar quais ferramentas de IA podem ser usadas para o ensaio e o escopo de seu uso.
- Definir funções e responsabilidades: Delimitar claramente quem é responsável por supervisionar o uso da ferramenta de IA, interpretar seus resultados e tomar decisões clínicas finais.
- Estabelecer responsabilidade: Garantir que as decisões clínicas permaneçam sob a responsabilidade do médico e não dependam exclusivamente dos resultados da IA.
- Estabelecer diretrizes de uso: Definir quando e como a ferramenta de IA deve ser usada na prática clínica, incluindo quaisquer cenários específicos em que não deve ser utilizada.
3. Treinar Funcionários e Equipe
- Fornecer treinamento específico sobre IA: Treinar todos os funcionários relevantes sobre como usar corretamente a ferramenta de IA, interpretar seus resultados e entender suas limitações.
- Educar sobre o uso ético: Incluir treinamento sobre considerações éticas, como evitar a dependência excessiva da IA, identificar possíveis vieses e manter um atendimento centrado no paciente.
- Aumentar a conscientização sobre privacidade de dados: Garantir que a equipe seja treinada sobre como manusear dados do paciente de forma segura e em conformidade com as leis aplicáveis.
4. Monitorar e Auditar o Uso da IA
- Acompanhar o desempenho: Monitorar regularmente o desempenho da ferramenta de IA na prática clínica para garantir que esteja fornecendo resultados precisos e confiáveis.
- Auditar a conformidade: Auditar periodicamente o uso da ferramenta de IA para garantir a adesão às políticas e diretrizes estabelecidas.
- Reportar eventos adversos: Estabelecer um sistema para documentar e relatar quaisquer eventos adversos ou erros associados à ferramenta de IA.
5. Manter a Privacidade e Segurança dos Dados
- Garantir o manuseio seguro de dados: Verificar se a ferramenta de IA e a empresa associada têm medidas robustas de proteção de dados em vigor, como criptografia e controles de acesso.
- Minimizar o compartilhamento de dados: Compartilhar apenas os dados dos pacientes que forem estritamente necessários com a ferramenta de IA.
- Obter consentimento informado: Informar os pacientes sobre o uso de IA em seu atendimento e obter seu consentimento.
6. Estabelecer um Ciclo de Feedback
- Coletar feedback dos usuários: Incentivar a equipe a fornecer feedback sobre a usabilidade e desempenho da ferramenta de IA.
- Reportar problemas ao fornecedor de IA: Comunicar quaisquer problemas técnicos, imprecisões ou resultados inesperados à empresa para resolução.
- Atualizar políticas conforme necessário: Revisar políticas e procedimentos com base nas lições aprendidas e atualizações da ferramenta de IA.
7. Garantir Uso Ético e Transparente
- Evitar dependência excessiva: Usar a ferramenta de IA como um complemento, e não como um substituto para o julgamento e experiência clínica.
- Abordar vieses: Estar vigilante na identificação e mitigação de potenciais vieses nos resultados da IA que possam impactar negativamente o atendimento ao paciente ou os resultados do ensaio clínico.
Implementando esses passos, o investigador clínico pode garantir que o uso da ferramenta de IA seja seguro, ético e em conformidade com as regulamentações relevantes, enquanto também promove a confiança entre pacientes e equipe.
Consentimento Informado: Além da Assinatura
Obter consentimento informado é um requisito regulatório crítico. Isso envolve mais do que apenas garantir uma assinatura; requer assegurar que os participantes compreendam completamente as ferramentas de IA utilizadas. Os investigadores clínicos devem explicar claramente o alcance das funções da IA, o tipo de dados gerados e como serão mantidos.
Abaixo está um esboço das informações a serem incluídas no consentimento informado relacionado ao uso de IA no ensaio clínico:
- Educar os participantes: Fornecer informações claras e acessíveis sobre as ferramentas de IA, incluindo seu propósito e funcionalidade.
- Esclarecer o uso de dados: Explicar quais dados serão coletados, como serão utilizados e as medidas em vigor para protegê-los.
- Discutir anonimização: Informar os participantes sobre os processos de anonimização de dados e os riscos potenciais de desanonimização.
- Abordar responsabilidade: Tornar os participantes cientes de quaisquer responsabilidades e limitações potenciais, garantindo que entendam as implicações do uso de IA no ensaio.
- Privacidade e segurança de dados: Explicar como os dados dos pacientes serão usados, armazenados e protegidos.
- Participação voluntária: Deixar claro que a participação é opcional e não afeta o atendimento padrão.
- Engajamento contínuo: Manter uma comunicação aberta com os participantes ao longo do ensaio para abordar quaisquer preocupações ou perguntas.
- Direito de retirar o consentimento: Informar os pacientes sobre seu direito de retirar o consentimento a qualquer momento, mas ressaltando que quaisquer dados coletados até aquele ponto, seja por meio de uma ferramenta habilitada para IA ou não, não serão retirados do estudo.
Conselhos Finais para Investigadores Usando IA
Embora as ferramentas de IA estejam transformando os ensaios clínicos, o quadro legal está tentando acompanhar esses desenvolvimentos de ponta. Focar na transparência, conformidade regulatória e consentimento informado permitirá que os investigadores clínicos integrem efetivamente a IA em seus ensaios.
Diante do cenário regulatório fluido em níveis estadual, federal e internacional, é recomendável que os investigadores clínicos consultem um profissional regulatório para implementar as melhores práticas e garantir conformidade com os padrões e práticas atuais. Compreender os requisitos regulatórios e manter a transparência com os participantes ajudará a proteger os dados dos pacientes e manter padrões éticos. Por meio dessas práticas, os investigadores clínicos podem aproveitar o potencial da IA enquanto minimizam riscos.