Menaces cybernétiques : l’essor de l’IA et ses risques pour la sécurité

A magnifying glass

De la contamination des données aux agents IA : La prochaine vague de menaces cybernétiques

Les outils d’intelligence artificielle (IA) se répandent rapidement dans diverses industries, offrant aux organisations de nouveaux moyens d’efficacité, d’aperçu et de croissance. Cependant, à mesure que l’adoption s’accélère, l’exposition aux risques cybernétiques augmente également.

Bien que l’IA puisse renforcer les défenses, ses capacités sont également exploitées par les cybercriminels. Le Forum économique mondial a rapporté une augmentation de 223% des applications d’IA générative sur le dark web entre 2023 et 2024. De plus, une enquête menée par la société de formation en cybersécurité SoSafe en mars a révélé que 87% des professionnels de la sécurité avaient rencontré une attaque alimentée par l’IA contre leur entreprise.

Deux grandes préoccupations sont soulevées concernant les modèles d’IA générative et la création de nouvelles surfaces d’attaque pour les organisations.

Apprentissage automatique adversarial : Attaques contre les modèles d’IA

Une zone majeure de préoccupation est l’apprentissage automatique adversarial, une famille d’attaques cybernétiques ciblant les modèles d’IA à différentes étapes de leur développement. Deux formes d’attaques attirent particulièrement l’attention : les attaques par contamination et les attaques sur la vie privée.

Attaques par contamination

La contamination des données fait référence aux tentatives d’interférer avec les sorties d’un modèle d’IA en manipulant les données utilisées pour l’entraîner. Cela peut se produire de manière active, lorsque un hacker insère des fichiers corrompus dans un ensemble de données d’entraînement, ou de manière passive, lorsque des données contaminées sont incorporées sans le savoir.

Un exemple en 2023 a montré que des chercheurs avaient développé un outil pour intégrer de petites quantités de données corrompues dans des œuvres d’art numériques. Ces fichiers étaient invisibles à l’œil nu et difficiles à détecter par les outils automatisés. S’ils étaient extraits et utilisés dans la formation d’IA, ils pouvaient dégrader les sorties d’un modèle.

Cette menace est non seulement efficace mais également peu coûteuse. Des chercheurs ont montré qu’ils pouvaient contaminer 0,01% d’un ensemble de données d’entraînement populaire pour seulement 60$.

Deux caractéristiques rendent la contamination particulièrement systémique :

  1. Vulnérabilité à travers les types de modèles – Les modèles de traitement du langage naturel, les systèmes de vision par ordinateur et l’IA générative peuvent tous être compromis.
  2. Concentration des données d’entraînement – Bien que des centaines de milliers d’ensembles de données existent, la plupart des développeurs s’appuient sur un pool relativement petit. Cibler ces ensembles de données peut donc compromettre une large gamme de modèles d’IA.

L’apprentissage fédéré, où plusieurs organisations forment conjointement un modèle tout en conservant la garde de leurs propres données, comporte également des risques, car si un seul participant est compromis, le modèle partagé peut être corrompu.

Attaques sur la vie privée

Les attaques sur la vie privée, en revanche, ciblent les modèles déjà formés et déployés. Ces attaques peuvent extraire des données sensibles, révéler des détails sur le fonctionnement d’un modèle, ou même répliquer le modèle lui-même.

Les risques sont significatifs car les modèles d’IA contiennent souvent des informations personnellement identifiables, de la propriété intellectuelle et des secrets commerciaux. Le phénomène de fuite de données est également préoccupant, où les systèmes d’IA exposent involontairement des informations sensibles.

Des erreurs humaines constituent un autre point faible. Une affaire largement médiatisée impliquait un employé d’une technologie qui a téléchargé du code source propriétaire sur un chatbot public. Cet incident a fait la une des journaux et a effrayé de nombreux DSI.

Cependant, la gouvernance des entreprises demeure inégale. Selon une enquête d’IBM, seulement 37% des organisations disposent d’une gouvernance autour de l’utilisation de l’IA. Nous pouvons donc nous attendre à plus de gros titres concernant la fuite de données à l’avenir.

L’essor des agents IA et l’augmentation des risques cybernétiques

La troisième catégorie de risque concerne les agents IA, également connus sous le nom d’IA agentique. Ces systèmes étendent les capacités des grands modèles de langage en leur permettant d’opérer de manière autonome.

Ces agents peuvent naviguer sur le web, accéder à des ensembles de données via des API, écrire et exécuter du code, effectuer des transactions en ligne, et même programmer leurs propres sous-agents. Mais cette autonomie comporte des risques profonds, y compris des erreurs et des « hallucinations » qui peuvent entraîner des fuites de données.

Plus un agent IA a de liberté, plus il y a de chances qu’il puisse mal utiliser ou exposer des données sensibles, perturber des systèmes d’affaires, ou être détourné par des hackers. De plus, comme ils imitent des acteurs humains, il existe un risque que des hackers puissent usurper l’identité des agents IA ou que des employés puissent confondre un hacker humain avec un agent IA légitime au sein des systèmes de l’entreprise.

Conseils pour les courtiers face aux risques liés à l’IA

À mesure que ces risques émergent, les clients chercheront de plus en plus à leurs courtiers des conseils pour gérer les expositions à l’IA et comment l’assurance peut répondre à ces défis.

Les spécialistes de l’industrie suggèrent que les courtiers se concentrent sur des étapes pratiques :

  • Demander des cas d’utilisation de l’IA – Encouragez les clients à cartographier où l’IA est déployée dans leur organisation, des chatbots de service client au développement de code, pour comprendre les points d’exposition potentiels.
  • Examiner la gouvernance et les contrôles – Seulement un tiers des entreprises déclarent avoir des politiques de gouvernance de l’IA. Les courtiers peuvent aider les clients à reconnaître l’importance d’une supervision formelle, y compris des politiques d’utilisation acceptable et de la formation des employés.
  • Mettre en lumière les risques de la chaîne d’approvisionnement – De nombreux outils d’IA dépendent d’ensembles de données tiers ou de modèles open-source. Les courtiers devraient discuter avec les clients de la manière dont ces fournisseurs sont vérifiés et des contrôles en place pour surveiller les manipulations.
  • Revoir soigneusement le langage des polices cybernétiques – Les polices cybernétiques standard peuvent ne pas traiter explicitement l’apprentissage automatique adversarial, les agents IA ou les fuites de données. Les courtiers devraient travailler avec les souscripteurs pour clarifier si et comment ces risques sont couverts.
  • Positionner la gestion des risques comme un différenciateur – Les clients qui peuvent démontrer une forte gouvernance de l’IA, une bonne hygiène des données et une supervision des fournisseurs sont mieux placés pour obtenir de meilleures conditions d’assurance et des prix.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...