Orientações Práticas para Governança de IA em Hong Kong

Governança de IA: Orientações Práticas do Comissário de Privacidade de Hong Kong para Dados Pessoais

As ferramentas de Inteligência Artificial (IA) estão sendo amplamente adotadas em diversos setores em Hong Kong. O Escritório do Comissário de Privacidade de Dados Pessoais (PCPD) conduziu uma série de verificações de conformidade em maio de 2025, descobrindo que 80% das organizações (48 de 60) relataram o uso de IA em suas operações diárias.

Diante da ampla adoção de IA em Hong Kong, o PCPD emitiu novas orientações práticas sobre a adoção de IA, incentivando as organizações a se referirem à Checklist on Guidelines for the Use of Generative AI by Employees publicada anteriormente neste ano para ajudá-las a desenvolver políticas internas que abordem os riscos e desafios únicos trazidos pela IA.

Áreas-chave a serem abordadas na política interna de IA

O PCPD recomenda que as organizações tratem das seguintes áreas-chave ao desenvolver políticas internas sobre IA:

  • Escopo de uso permitido: As organizações devem identificar claramente quais ferramentas de IA generativa (Gen AI) estão aprovadas para uso e definir os casos de uso permitidos, como redação de documentos e criação de conteúdo.
  • Proteção da privacidade de dados pessoais: A política interna de IA deve fornecer orientações claras sobre as entradas e saídas das ferramentas de Gen AI, incluindo tipos e quantidades de informações que podem ser inseridas.
  • Uso legal e ético e prevenção de preconceitos: A política deve proibir o uso de IA para atividades ilegais ou prejudiciais e exigir que todas as saídas geradas por IA sejam revisadas por humanos para verificar a precisão.
  • Segurança de dados: As organizações devem definir quais categorias de funcionários estão autorizadas a usar ferramentas de Gen AI e especificar os tipos de dispositivos em que essas ferramentas podem ser acessadas.
  • Violação da política de IA: As organizações devem estabelecer claramente as consequências para o não cumprimento da política interna de IA.

Medidas práticas de suporte

O PCPD propõe medidas práticas de suporte, incluindo comunicação regular com os funcionários sobre políticas internas, treinamento direcionado e uma equipe de suporte designada na organização.

Considerações Finais

Para atender efetivamente às expectativas do PCPD e mitigar os riscos relacionados à IA, as organizações devem considerar:

  • Realizar uma revisão abrangente de todas as ferramentas de IA e casos de uso dentro da organização.
  • Especificar claramente quais ferramentas de IA estão aprovadas e exigir a pré-aprovação para a adoção de novas ferramentas.
  • Proibir a inserção de informações sensíveis em ferramentas de IA públicas.
  • Implementar autenticação forte e padrões de configuração segura.
  • Realizar auditorias regulares do uso de IA e coletar feedback dos funcionários.

À medida que a IA continua a transformar o cenário empresarial em Hong Kong, o PCPD convocou as organizações a adotar uma abordagem proativa e estruturada para a governança da IA, estabelecendo políticas abrangentes que promovam o uso legal, ético e responsável das tecnologias de IA.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...