AI, Responsabilité et l’Alerte de Cybersécurité

Avec l’essor de l’intelligence artificielle (IA) dans les organisations, il est crucial de reconnaître la réalité que l’IA transforme rapidement le paysage des menaces en cybersécurité. Bien que l’IA aide les directeurs de la sécurité de l’information (CISO) à améliorer la détection et la réponse, elle favorise également des cyberattaques de plus en plus sophistiquées. Les mêmes moteurs d’IA qui produisent des informations précieuses peuvent aussi créer de fausses identités, des campagnes de phishing et des logiciels malveillants.

Le Paysage des Menaces en Expansion

L’IA a modifié le terrain de jeu pour les cybercriminels. Ils peuvent maintenant utiliser des modèles génératifs pour rédiger des messages de phishing personnalisés, automatiser la création de logiciels malveillants capables d’échapper à la détection, et même manipuler l’audio et la vidéo pour usurper l’identité d’exécutifs à l’aide de deepfakes. Ces tactiques ne sont plus réservées aux acteurs étatiques ou aux groupes de hackers d’élite, car elles sont accessibles via des outils open-source et des plateformes d’IA en tant que service.

Une étude récente révèle que 44% des organisations citent la négligence interne et le manque de sensibilisation à la cybersécurité des employés comme des vulnérabilités majeures, dépassant même le ransomware sur l’indice de risque. Cela montre que de nombreuses entreprises ne suivent pas le rythme de l’évolution des attaques : des systèmes hérités, des logiciels obsolètes et de faibles stratégies de gestion des correctifs facilitent les violations de réseaux par les cybercriminels.

Lignes de Responsabilité Floues

Un constat clé du rapport est le manque de clarté autour de la propriété en matière de cybersécurité. Alors que 53% des CISO rendent directement compte aux CIO, les autres sont dispersés à travers diverses fonctions exécutives, y compris les COO, CFO et équipes juridiques. Cela affaiblit la prise de décision et rend flou qui est réellement responsable des résultats en matière de sécurité.

Ce problème devient plus aigu avec l’entrée de l’IA dans le tableau. Le rapport a révélé que 70% des répondants européens estiment que la mise en œuvre de l’IA devrait être une responsabilité partagée, mais seulement 13% disposent d’une équipe désignée pour la superviser. L’adoption de l’IA se fait souvent sans une surveillance des risques critique, sans propriété clairement définie, ce qui entraîne des pratiques incohérentes, des vulnérabilités non gérées et des opportunités manquées d’alignement sur les cadres réglementaires.

Le Rôle de l’IA dans la Redéfinition de la Sécurité

Bien que l’IA ait créé de nouvelles menaces, elle offre également de puissantes capacités pour aider les organisations à protéger leurs réseaux. La détection des menaces alimentée par l’IA peut analyser de grandes quantités de données en temps réel, réduire les faux positifs et identifier des irrégularités comportementales pouvant indiquer une violation. Elle peut automatiser le triage des incidents, accélérer les temps de réponse et aider les centres d’opérations de sécurité.

Selon le rapport, 93% des organisations interrogées privilégient l’IA pour la détection et la réponse aux menaces, reflétant ainsi la valeur que les organisations accordent à la détection des menaces. Cette nature à double usage de l’IA exige une approche mesurée et responsable de sa mise en œuvre. Les organisations ont besoin de cadres de gouvernance qui couvrent l’explicabilité des modèles, l’atténuation des biais et la conformité aux lois sur la protection des données. Sans ces éléments, l’IA peut devenir un risque imprévisible plutôt qu’un outil de résilience.

Pourquoi la Formation des Employés Reste Importante

Dans un monde d’outils avancés d’IA, l’erreur humaine reste la vulnérabilité la plus constante en matière de cybersécurité. Le phishing demeure le vecteur d’attaque principal pour 65% des organisations. À mesure que les attaquants utilisent l’IA pour créer des tactiques d’ingénierie sociale plus convaincantes, le risque de violations déclenchées par les utilisateurs augmente.

Une des principales raisons à cela est que les organisations considèrent souvent la formation en cybersécurité comme une activité de conformité ponctuelle. Elle doit être un processus continu qui évolue au fil du temps. Les employés doivent être formés sur les menaces courantes et les risques alimentés par l’IA, tels que l’imitation vocale par deepfake ou les attaques par injection de prompts sur les plateformes alimentées par l’IA. Les mises à jour négligées, les systèmes non corrigés et la dépendance à une infrastructure héritée restent des problèmes persistants, créant des opportunités pour des violations. La formation doit aller de pair avec des audits de routine, la gestion des correctifs et la coordination inter-départementale.

Construire une Culture de Responsabilité

La base d’une stratégie de cybersécurité n’est pas la technologie ; c’est la clarté. Les organisations doivent définir qui est responsable de quoi, établir des structures de gouvernance et encourager une culture de sécurité qui s’étend à tous les domaines.

La clé est d’habiliter le CISO ou un rôle de leadership informatique équivalent avec autorité et visibilité. Il est judicieux de former des conseils de risque cybernétique inter-fonctionnels, comprenant des représentants de l’IT, de la conformité, des affaires juridiques et des unités commerciales. Certaines entreprises établissent des comités au niveau du conseil d’administration spécifiquement axés sur la surveillance de la cybersécurité.

Les cadres de gouvernance pour les déploiements d’IA doivent inclure des contrôles sur les données d’entraînement, le déploiement des modèles, les droits d’accès et la surveillance en temps réel. Ces cadres doivent évoluer en parallèle des réglementations telles que la Loi sur l’IA de l’UE et des normes industrielles émergentes pour l’utilisation éthique de l’IA.

La formation des employés autour de l’IA doit également être intégrée dans ce changement culturel. La sécurité de l’IA n’est pas seulement un problème informatique — c’est une responsabilité partagée entre départements, régions et rôles. L’ensemble de l’organisation y gagne lorsque chacun comprend son rôle dans la protection des données et des systèmes.

De la Conscience à l’Action

L’IA redessine le paysage de la cybersécurité. Les attaquants sont plus rapides, plus évolutifs et de plus en plus automatisés. Les défenseurs disposent d’outils puissants, mais les outils seuls ne suffisent pas à les sauver.

Les organisations doivent mettre en place de meilleurs processus de gouvernance, et non pas seulement des algorithmes plus puissants. Cela inclut la clarification de la responsabilité des systèmes d’IA et la possibilité d’inclure l’IA dans le mélange de la cybersécurité.

Le rapport envoie un message clair : la technologie avance rapidement, mais les personnes, les processus et les priorités restent en retard. Combler ce fossé est une nécessité stratégique, surtout maintenant que l’IA est en jeu. Il ne fait aucun doute que l’IA continuera de transformer notre façon de vivre et de travailler. Mais que cette transformation renforce ou compromette votre organisation dépend de la manière dont vous prenez au sérieux la responsabilité, à partir d’aujourd’hui.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...