Initiatives indispensables pour une IA sécurisée à Hong Kong

A lockbox

Les entreprises de Hong Kong doivent prendre l’initiative en matière de pratiques d’IA sécurisées

Alors que l’intelligence artificielle (IA) se développe rapidement, de plus en plus d’organisations exploitent cette technologie pour rationaliser leurs opérations, améliorer la qualité et renforcer leur compétitivité.

Cependant, l’IA pose des risques de sécurité, notamment en ce qui concerne la protection des données personnelles, qui ne peuvent être ignorés. Par exemple, les organisations qui développent ou utilisent des systèmes d’IA collectent souvent, utilisent et traitent des données personnelles, ce qui entraîne des risques de confidentialité tels que la collecte excessive, l’utilisation non autorisée et les violations de données personnelles.

L’importance de la sécurité de l’IA

L’importance de la sécurité de l’IA est devenue un thème commun dans les déclarations et résolutions internationales adoptées ces dernières années. En 2023, 28 pays, dont la Chine et les États-Unis, ont signé la Déclaration de Bletchley lors du Sommet sur la sécurité de l’IA au Royaume-Uni. La déclaration stipule que l’utilisation abusive de modèles d’IA avancés pourrait entraîner des dommages catastrophiques et souligne l’urgence de traiter ces risques.

En 2024, l’Assemblée générale des Nations Unies a adopté une résolution internationale sur l’IA, promouvant des systèmes d’IA « sûrs, sécurisés et fiables ». Lors du Sommet sur l’action de l’IA à Paris en février, plus de 60 pays, dont la Chine, ont signé une déclaration soulignant que tirer parti des avantages de l’IA pour la croissance économique et sociétale dépend de l’avancement de la sécurité et de la confiance en matière d’IA.

Innovation technologique et industrielle en Chine

Concernant l’innovation technologique et industrielle, la Chine a souligné à la fois le développement et la sécurité. En 2023, le continent chinois a lancé l’Initiative mondiale sur la gouvernance de l’IA, proposant des principes tels que l’adoption d’une approche centrée sur l’homme et le développement de l’IA pour le bien.

Plus récemment, en avril, lors d’une session d’étude de groupe du Bureau politique, le Président Xi Jinping a déclaré que bien que l’IA présente des opportunités de développement sans précédent, elle entraîne également des risques et des défis sans précédent.

Risques et défis de l’IA

Ces risques et défis sont aussi réels qu’inédits. Il y a environ deux ans, Samsung a interdit à ses employés d’utiliser ChatGPT en raison de préoccupations liées à la fuite d’informations internes sensibles sur de telles plateformes. Cette décision a été apparemment provoquée par une fuite accidentelle de code source interne par un ingénieur. Cet incident souligne l’importance de protéger les secrets commerciaux à l’ère technologique et les conséquences de l’échec à le faire.

À la même époque, ChatGPT a signalé un incident majeur de fuite de données. Des données sensibles, y compris les titres des conversations des utilisateurs avec le chatbot, les noms des utilisateurs, les adresses e-mail et même des parties de leurs numéros de carte de crédit, ont été divulguées.

Utilisation croissante des chatbots alimentés par l’IA

Alors que les chatbots alimentés par l’IA gagnent en maturité et en popularité, ils trouvent leur place dans les lieux de travail, les employés les utilisant pour préparer des procès-verbaux, résumer des présentations, produire des matériaux promotionnels ou même créer ou modifier des codes sources internes.

Cependant, les organisations doivent réaliser que cette utilisation de l’IA, bien qu’elle aide à automatiser les flux de travail et à accroître la productivité, pose également des risques tels que la fuite d’informations confidentielles ou des données personnelles des clients, la collecte excessive ou l’utilisation inappropriée des données des clients et la production de données inexactes ou biaisées.

Conformité et gouvernance des données

Étant donné les risques de confidentialité et de sécurité posés par l’IA, des vérifications de conformité ont été effectuées sur 60 organisations dans divers secteurs. Ces vérifications visaient à comprendre si ces organisations respectaient les exigences pertinentes de l’Ordonnance sur la protection des données personnelles dans la collecte, l’utilisation et le traitement de données personnelles lors de l’utilisation de l’IA, et si une gouvernance appropriée était en place.

Selon les résultats, 80 % des organisations examinées utilisaient l’IA dans leurs opérations quotidiennes. Parmi ces organisations, la moitié a collecté et/ou utilisé des données personnelles par le biais de systèmes d’IA. Cependant, toutes n’ont pas formulé de politiques liées à l’IA. Seules environ 63 % des organisations qui ont collecté et/ou utilisé des données personnelles par le biais de systèmes d’IA avaient de telles politiques en place. Il est clair qu’il y a de la place pour l’amélioration.

Importance des politiques liées à l’IA

L’importance d’avoir une politique liée à l’IA ne peut être surestimée. Les organisations sont recommandées de formuler des directives internes sur l’IA pour trouver un équilibre entre l’efficacité commerciale et la protection de la confidentialité des données.

À cette fin, une liste de contrôle sur les directives pour l’utilisation de l’IA générative par les employés a été publiée pour aider les organisations à développer les bonnes politiques tout en respectant l’ordonnance de la ville sur l’IA.

Les directives, présentées sous forme de liste de contrôle, recommandent qu’une politique interne sur l’IA d’une organisation inclue des informations sur l’utilisation permise de l’IA générative, la protection de la confidentialité des données personnelles, l’utilisation légale et éthique, la prévention des biais, la sécurité des données et les conséquences des violations.

Les organisations sont responsables de garantir que le développement ou l’utilisation de l’IA soit non seulement bénéfique pour les affaires, mais aussi légal et sûr. Tout en exploitant l’IA pour affiner leur avantage concurrentiel, les organisations ne doivent pas permettre à la technologie de devenir leur nouveau maître.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...