Gouvernance de l’IA : Directives pratiques du Commissaire à la protection de la vie privée de Hong Kong
Introduction
Les outils d’Intelligence Artificielle (IA) sont désormais largement adoptés dans divers secteurs à Hong Kong. En mai 2025, le Bureau du Commissaire à la protection de la vie privée (PCPD) a réalisé plusieurs vérifications de conformité et a constaté que 80 % des organisations (48 sur 60) utilisaient l’IA dans leurs opérations quotidiennes.
Étant donné l’adoption généralisée de l’IA, le PCPD a publié de nouvelles directives pratiques sur l’adoption de l’IA, encourageant les organisations à se référer à la Check-list des Directives pour l’utilisation de l’IA générative par les employés, publiée plus tôt cette année pour les aider à développer des politiques internes qui répondent aux risques et défis uniques posés par l’IA.
Domaines clés à aborder dans les politiques internes
Le PCPD recommande que les organisations traitent les domaines clés suivants lors de l’élaboration de leurs politiques internes sur l’IA :
- Portée de l’utilisation permise : Identifier clairement quels outils d’IA générative sont approuvés et définir les cas d’utilisation permis (comme la rédaction de documents, la préparation de résumés ou la création de contenu). La politique interne doit également préciser à qui elle s’applique, indiquant si elle concerne tous les employés ou est limitée à certains départements ou rôles.
- Protection de la vie privée des données personnelles : La politique interne sur l’IA doit fournir des orientations claires sur les entrées et sorties des outils d’IA générative, y compris les types et quantités d’informations pouvant être saisies, les cas d’utilisation permis pour les résultats générés par l’IA, et les règles de stockage et de conservation de ces informations pour garantir la conformité avec les exigences de confidentialité des données.
- Utilisation légale et éthique et prévention des biais : La politique interne doit interdire l’utilisation de l’IA à des fins illégales ou nuisibles. Elle doit également exiger que tous les résultats générés par l’IA soient soumis à une révision humaine pour vérifier leur exactitude et identifier d’éventuels biais ou discriminations, et fournir des instructions sur l’étiquetage des matériaux générés par l’IA.
- Sécurité des données : Les organisations doivent définir quelles catégories d’employés sont autorisées à utiliser les outils d’IA générative et spécifier les types d’appareils sur lesquels ces outils peuvent être accessibles. L’utilisation de fortes identifiants utilisateurs et de paramètres de sécurité doit être obligatoire.
- Violations de la politique sur l’IA : Les organisations doivent clairement définir les conséquences de non-conformité à la politique interne sur l’IA. Pour une gouvernance plus large de l’IA, elles peuvent se référer au Modèle de cadre de protection des données personnelles pour l’IA émis par le PCPD en 2024.
Mesures pratiques de soutien à une utilisation responsable
Le PCPD propose des mesures de soutien pratiques, telles que :
- Communication régulière avec les employés sur les politiques internes et les mises à jour.
- Formation ciblée pour les employés.
- Équipe de soutien désignée au sein de l’organisation.
- Mécanisme de retour d’information pour favoriser l’amélioration continue.
Conclusion
Pour répondre efficacement aux attentes du PCPD et atténuer les risques liés à l’IA, les organisations devraient envisager de :
- Effectuer une révision complète de tous les outils et cas d’utilisation de l’IA au sein de l’organisation.
- Spécifier clairement quels outils d’IA sont approuvés et exiger une pré-approbation pour l’adoption de nouveaux outils.
- Interdire l’entrée d’informations sensibles ou confidentielles dans des outils d’IA publics.
- Attribuer des réviseurs désignés pour les cas d’utilisation à haut risque.
- Mettre en œuvre des normes de sécurité robustes.
- Fournir une formation spécifique par rôle et des canaux de soutien accessibles pour les employés.
- Effectuer des audits réguliers de l’utilisation de l’IA.
À mesure que l’IA continue de transformer le paysage commercial à Hong Kong, le PCPD appelle les organisations à adopter une approche proactive et structurée de la gouvernance de l’IA et à établir des politiques complètes qui favorisent l’utilisation légale, éthique et responsable des technologies d’IA.