Les entreprises de Hong Kong doivent prendre l’initiative en matière de pratiques d’IA sécurisées
Alors que l’intelligence artificielle (IA) se développe rapidement, de plus en plus d’organisations exploitent cette technologie pour rationaliser leurs opérations, améliorer la qualité et renforcer leur compétitivité.
Cependant, l’IA pose des risques de sécurité, notamment en ce qui concerne la protection des données personnelles, qui ne peuvent être ignorés. Par exemple, les organisations qui développent ou utilisent des systèmes d’IA collectent souvent, utilisent et traitent des données personnelles, ce qui entraîne des risques de confidentialité tels que la collecte excessive, l’utilisation non autorisée et les violations de données personnelles.
L’importance de la sécurité de l’IA
L’importance de la sécurité de l’IA est devenue un thème commun dans les déclarations et résolutions internationales adoptées ces dernières années. En 2023, 28 pays, dont la Chine et les États-Unis, ont signé la Déclaration de Bletchley lors du Sommet sur la sécurité de l’IA au Royaume-Uni. La déclaration stipule que l’utilisation abusive de modèles d’IA avancés pourrait entraîner des dommages catastrophiques et souligne l’urgence de traiter ces risques.
En 2024, l’Assemblée générale des Nations Unies a adopté une résolution internationale sur l’IA, promouvant des systèmes d’IA « sûrs, sécurisés et fiables ». Lors du Sommet sur l’action de l’IA à Paris en février, plus de 60 pays, dont la Chine, ont signé une déclaration soulignant que tirer parti des avantages de l’IA pour la croissance économique et sociétale dépend de l’avancement de la sécurité et de la confiance en matière d’IA.
Innovation technologique et industrielle en Chine
Concernant l’innovation technologique et industrielle, la Chine a souligné à la fois le développement et la sécurité. En 2023, le continent chinois a lancé l’Initiative mondiale sur la gouvernance de l’IA, proposant des principes tels que l’adoption d’une approche centrée sur l’homme et le développement de l’IA pour le bien.
Plus récemment, en avril, lors d’une session d’étude de groupe du Bureau politique, le Président Xi Jinping a déclaré que bien que l’IA présente des opportunités de développement sans précédent, elle entraîne également des risques et des défis sans précédent.
Risques et défis de l’IA
Ces risques et défis sont aussi réels qu’inédits. Il y a environ deux ans, Samsung a interdit à ses employés d’utiliser ChatGPT en raison de préoccupations liées à la fuite d’informations internes sensibles sur de telles plateformes. Cette décision a été apparemment provoquée par une fuite accidentelle de code source interne par un ingénieur. Cet incident souligne l’importance de protéger les secrets commerciaux à l’ère technologique et les conséquences de l’échec à le faire.
À la même époque, ChatGPT a signalé un incident majeur de fuite de données. Des données sensibles, y compris les titres des conversations des utilisateurs avec le chatbot, les noms des utilisateurs, les adresses e-mail et même des parties de leurs numéros de carte de crédit, ont été divulguées.
Utilisation croissante des chatbots alimentés par l’IA
Alors que les chatbots alimentés par l’IA gagnent en maturité et en popularité, ils trouvent leur place dans les lieux de travail, les employés les utilisant pour préparer des procès-verbaux, résumer des présentations, produire des matériaux promotionnels ou même créer ou modifier des codes sources internes.
Cependant, les organisations doivent réaliser que cette utilisation de l’IA, bien qu’elle aide à automatiser les flux de travail et à accroître la productivité, pose également des risques tels que la fuite d’informations confidentielles ou des données personnelles des clients, la collecte excessive ou l’utilisation inappropriée des données des clients et la production de données inexactes ou biaisées.
Conformité et gouvernance des données
Étant donné les risques de confidentialité et de sécurité posés par l’IA, des vérifications de conformité ont été effectuées sur 60 organisations dans divers secteurs. Ces vérifications visaient à comprendre si ces organisations respectaient les exigences pertinentes de l’Ordonnance sur la protection des données personnelles dans la collecte, l’utilisation et le traitement de données personnelles lors de l’utilisation de l’IA, et si une gouvernance appropriée était en place.
Selon les résultats, 80 % des organisations examinées utilisaient l’IA dans leurs opérations quotidiennes. Parmi ces organisations, la moitié a collecté et/ou utilisé des données personnelles par le biais de systèmes d’IA. Cependant, toutes n’ont pas formulé de politiques liées à l’IA. Seules environ 63 % des organisations qui ont collecté et/ou utilisé des données personnelles par le biais de systèmes d’IA avaient de telles politiques en place. Il est clair qu’il y a de la place pour l’amélioration.
Importance des politiques liées à l’IA
L’importance d’avoir une politique liée à l’IA ne peut être surestimée. Les organisations sont recommandées de formuler des directives internes sur l’IA pour trouver un équilibre entre l’efficacité commerciale et la protection de la confidentialité des données.
À cette fin, une liste de contrôle sur les directives pour l’utilisation de l’IA générative par les employés a été publiée pour aider les organisations à développer les bonnes politiques tout en respectant l’ordonnance de la ville sur l’IA.
Les directives, présentées sous forme de liste de contrôle, recommandent qu’une politique interne sur l’IA d’une organisation inclue des informations sur l’utilisation permise de l’IA générative, la protection de la confidentialité des données personnelles, l’utilisation légale et éthique, la prévention des biais, la sécurité des données et les conséquences des violations.
Les organisations sont responsables de garantir que le développement ou l’utilisation de l’IA soit non seulement bénéfique pour les affaires, mais aussi légal et sûr. Tout en exploitant l’IA pour affiner leur avantage concurrentiel, les organisations ne doivent pas permettre à la technologie de devenir leur nouveau maître.