Atténuer le nouveau risque de l’IA : Unifier la cybersécurité d’entreprise avec la sécurité de l’IA
Ces temps sont passionnants pour l’IA. Les entreprises mélangent les capacités de l’IA avec les données d’entreprise pour offrir de meilleurs résultats aux employés, clients et partenaires. Cependant, à mesure que les organisations intègrent de plus en plus l’IA dans leurs systèmes, ces données et infrastructures deviennent également des cibles plus attrayantes pour les cybercriminels et autres adversaires.
En particulier, l’IA générative (IA gen) introduit de nouveaux risques en élargissant considérablement la surface d’attaque d’une organisation. Cela signifie que les entreprises doivent évaluer soigneusement les menaces potentielles, les vulnérabilités et les risques qu’elles impliquent pour les opérations commerciales. Déployer l’IA avec une posture de sécurité solide, en conformité avec les réglementations et d’une manière plus digne de confiance, nécessite plus que des défenses patchwork ; cela demande un changement stratégique. La sécurité ne peut pas être une réflexion après coup – elle doit être intégrée dans toute la stratégie de l’IA.
Sécurité de l’IA vs. Sécurité de l’IA
La sécurité de l’IA et la sécurité de l’IA sont des concepts liés mais distincts. Les deux sont nécessaires pour réduire les risques, mais ils répondent à des défis différents.
Sécurité de l’IA
La sécurité de l’IA se concentre sur la protection de la confidentialité, de l’intégrité et de la disponibilité des systèmes d’IA. L’objectif est d’empêcher les acteurs malveillants d’attaquer ou de manipuler ces systèmes. Les menaces peuvent provenir de :
- Exploitation des vulnérabilités dans les composants logiciels
- Systèmes mal configurés ou authentification défaillante permettant un accès non autorisé aux données sensibles de l’entreprise
- Injection de prompts ou « jailbreaking » des modèles
En d’autres termes, la sécurité de l’IA ressemble beaucoup à la sécurité informatique traditionnelle, mais appliquée à de nouveaux types de systèmes.
Sécurité de l’IA
La sécurité de l’IA aide à maintenir le comportement prévu des systèmes d’IA, en les alignant sur les politiques de l’entreprise, les réglementations et les normes éthiques. Les risques ici ne concernent pas la compromission du système, mais ce que le système produit. Les problèmes de sécurité incluent :
- Langage nuisible ou toxique
- Biais ou discrimination dans les réponses
- Hallucinations (réponses plausibles mais fausses)
- Recommandations dangereuses ou trompeuses
Un échec de sécurité peut éroder la confiance, causer des dommages à la réputation et même créer des responsabilités légales ou éthiques.
Exemples de risques de sécurité et de sécurité
Sécurité de l’IA
- Problèmes de sécurité de la mémoire : Les logiciels d’inférence et autres composants du système d’IA peuvent être vulnérables à des problèmes traditionnels de sécurité de la mémoire.
- Configurations non sécurisées : Le serveur MCP d’un outil est exposé à Internet sans authentification.
- Authentification ou autorisation défaillante
- Malware : Attaque de la chaîne d’approvisionnement où un code malveillant est ajouté à un modèle open source de confiance.
Sécurité de l’IA
- Biais : Les réponses du modèle discriminent un groupe social en fonction de caractéristiques personnelles.
- Hallucination : Le modèle invente des réponses qui ne sont pas basées sur des faits.
- Réponses nuisibles : Le modèle fournit des réponses qui peuvent causer des dommages aux utilisateurs.
- Langage toxique : Les réponses du modèle contiennent un contenu offensant ou abusif.
La nouvelle frontière des risques : Démystification de la « sécurité »
Bien que la sécurité fondamentale soit critique, les modèles de langage de grande taille (LLMs) introduisent un domaine de risque supplémentaire : la sécurité. Contrairement à l’utilisation traditionnelle du terme, dans le contexte de l’IA, la sécurité signifie fiabilité, équité et alignement éthique.
Un échec de sécurité pourrait exposer des données sensibles, tandis qu’un échec de sécurité pourrait produire des recommandations biaisées, des réponses toxiques dans un chatbot client, ou d’autres résultats qui sapent la confiance.
Pourquoi cela se produit-il ? Les LLMs sont formés pour prédire le « mot suivant » basé sur des données d’entraînement, pas pour distinguer entre vérité et faussehood. Ils essaient également de répondre à chaque question, même celles pour lesquelles ils n’ont pas été formés. Cela crée des résultats imprévisibles.
Devrait-on accorder toute l’attention au modèle IA ?
Les modèles d’IA attirent souvent l’attention, mais ils ne sont qu’un composant d’un système d’IA plus large. En fait, les composants non-IA (serveurs, API, couches d’orchestration) constituent souvent la majorité du système et portent leurs propres risques.
La bonne approche est une stratégie de défense en profondeur : renforcer les pratiques de sécurité d’entreprise existantes, puis ajouter des protections supplémentaires pour les nouveaux risques que l’IA générative introduit.
Unification de la sécurité de l’IA avec la cybersécurité d’entreprise
La sécurité de l’IA ne consiste pas à réinventer la roue. Les mêmes principes qui sous-tendent la sécurité d’entreprise traditionnelle s’appliquent ici. En fait, vos investissements existants dans la cybersécurité sont la base de votre posture de sécurité de l’IA.
La sécurité consiste à gérer le risque – réduire la probabilité qu’une menace se matérialise et minimiser son impact si elle le fait. Cela signifie :
- Modélisation des risques pour identifier et prioriser les risques liés à l’IA
- Tests de pénétration pour mesurer la robustesse
- Surveillance continue pour détecter et répondre aux incidents
Le classique triade CIA (Confidentialité, Intégrité, Disponibilité) s’applique toujours, que le système soit alimenté par l’IA ou non. Pour renforcer la sécurité de l’IA, les entreprises devraient étendre les pratiques éprouvées, y compris :
- Cycle de vie du développement logiciel sécurisé (SDLC) : Intégrer la sécurité à chaque phase.
- Chaîne d’approvisionnement sécurisée : Vérifier chaque modèle, bibliothèque et conteneur pour se protéger contre les vulnérabilités ou le code malveillant.
- Outils SIEM (Gestion des informations et des événements de sécurité) et SOAR (Orchestration, automatisation et réponse de sécurité)
Les entreprises devraient également intégrer le risque lié à l’IA dans les cadres de gouvernance existants, comme un système de gestion de la sécurité de l’information (ISMS), plutôt que de créer des programmes d’IA autonomes. En considérant la sécurité de l’IA comme une extension de votre posture existante, vous pouvez tirer parti des mêmes compétences, outils et processus pour couvrir la plupart des risques plus efficacement.
Avancer
En résumé, les entreprises devraient adopter une approche holistique de la sécurité et de la sécurité de l’IA. Les cadres soulignent la nécessité d’une gestion des risques intégrée, combinant sécurité, gouvernance et conformité avec des mesures de protection spécifiques à l’IA.
La conclusion est que l’IA offre d’énormes opportunités, mais aussi des risques uniques. En unifiant la sécurité de l’IA avec vos pratiques de cybersécurité établies et en ajoutant des mesures de sécurité, les entreprises peuvent construire des systèmes plus fiables qui apportent de la valeur commerciale.