Governança de IA: Orientações Práticas do Comissário de Privacidade de Hong Kong para Dados Pessoais
As ferramentas de Inteligência Artificial (IA) estão sendo amplamente adotadas em diversos setores em Hong Kong. O Escritório do Comissário de Privacidade de Dados Pessoais (PCPD) conduziu uma série de verificações de conformidade em maio de 2025, descobrindo que 80% das organizações (48 de 60) relataram o uso de IA em suas operações diárias.
Diante da ampla adoção de IA em Hong Kong, o PCPD emitiu novas orientações práticas sobre a adoção de IA, incentivando as organizações a se referirem à Checklist on Guidelines for the Use of Generative AI by Employees publicada anteriormente neste ano para ajudá-las a desenvolver políticas internas que abordem os riscos e desafios únicos trazidos pela IA.
Áreas-chave a serem abordadas na política interna de IA
O PCPD recomenda que as organizações tratem das seguintes áreas-chave ao desenvolver políticas internas sobre IA:
- Escopo de uso permitido: As organizações devem identificar claramente quais ferramentas de IA generativa (Gen AI) estão aprovadas para uso e definir os casos de uso permitidos, como redação de documentos e criação de conteúdo.
- Proteção da privacidade de dados pessoais: A política interna de IA deve fornecer orientações claras sobre as entradas e saídas das ferramentas de Gen AI, incluindo tipos e quantidades de informações que podem ser inseridas.
- Uso legal e ético e prevenção de preconceitos: A política deve proibir o uso de IA para atividades ilegais ou prejudiciais e exigir que todas as saídas geradas por IA sejam revisadas por humanos para verificar a precisão.
- Segurança de dados: As organizações devem definir quais categorias de funcionários estão autorizadas a usar ferramentas de Gen AI e especificar os tipos de dispositivos em que essas ferramentas podem ser acessadas.
- Violação da política de IA: As organizações devem estabelecer claramente as consequências para o não cumprimento da política interna de IA.
Medidas práticas de suporte
O PCPD propõe medidas práticas de suporte, incluindo comunicação regular com os funcionários sobre políticas internas, treinamento direcionado e uma equipe de suporte designada na organização.
Considerações Finais
Para atender efetivamente às expectativas do PCPD e mitigar os riscos relacionados à IA, as organizações devem considerar:
- Realizar uma revisão abrangente de todas as ferramentas de IA e casos de uso dentro da organização.
- Especificar claramente quais ferramentas de IA estão aprovadas e exigir a pré-aprovação para a adoção de novas ferramentas.
- Proibir a inserção de informações sensíveis em ferramentas de IA públicas.
- Implementar autenticação forte e padrões de configuração segura.
- Realizar auditorias regulares do uso de IA e coletar feedback dos funcionários.
À medida que a IA continua a transformar o cenário empresarial em Hong Kong, o PCPD convocou as organizações a adotar uma abordagem proativa e estruturada para a governança da IA, estabelecendo políticas abrangentes que promovam o uso legal, ético e responsável das tecnologias de IA.