Intelligence Artificielle : Défis et Menaces dans la Cybersécurité

A digital shield

RSAC 2025 : Intelligence Artificielle, Lacunes de Gouvernance et Menaces Internes

L’Intelligence Artificielle (IA) a été le thème central de la conférence RSAC de cette année, révélant son omniprésence dans toutes les discussions liées à la cybersécurité. Avec près de 44 000 participants, 730 intervenants, 650 exposants et 400 membres des médias, il est clair que l’IA est devenue un sujet incontournable dans le domaine de la sécurité.

Au-delà des attentes initiales concernant la domination de l’IA dans les discussions, il a été noté que cette technologie pénètre profondément chaque mise à jour d’entreprise, chaque séance de stratégie, et même les conversations informelles. Cette situation soulève des questions quant à la frontière entre réalité et hype.

Adoption Généralisée de l’IA en Cybersécurité

Nous avons assisté à une transition, non officielle, de la phase de preuve de concept vers une implémentation agressive. Selon des recherches de la Cloud Security Alliance (CSA), 90% des organisations adoptent actuellement l’IA générative pour la sécurité ou prévoient de le faire. La majorité des professionnels de l’IT et de la sécurité croient que ces technologies peuvent améliorer leurs compétences et leur permettre de se concentrer sur des missions plus enrichissantes.

Cependant, les cybercriminels exploitent également cette innovation, faisant de l’IA-enhanced malware un risque majeur pour les entreprises. Cela met en place un véritable scénario de Spy vs. Spy, où les « bons » et les « mauvais » s’affrontent dans une course technologique.

Le terme IA agentique a suscité de nombreuses discussions. Ce type d’IA agit de manière autonome pour atteindre des objectifs sans supervision humaine constante, mais il est difficile de déterminer si cela représente une véritable innovation ou simplement un marketing repackagé.

Lacunes dans la Gouvernance de l’IA en Entreprise

Les comités de gouvernance de l’IA se concentrent souvent sur des préoccupations de vie privée et de sécurité, ignorant des considérations plus larges comme la responsabilité légale, l’exposition au licenciement, et l’utilisation appropriée des outils d’IA. Cela conduit à l’approbation d’outils d’IA sans évaluation complète des risques.

Actuellement, les dirigeants se concentrent sur des opérations sécurisées utilisant des modèles locaux et des réponses aux incidents, mais ils doivent évoluer vers une planification de l’IA à l’échelle de l’entreprise, guidée par des objectifs stratégiques plutôt que par une exécution fonctionnelle.

Prolifération des Menaces Internes

Les menaces internes ne sont pas nouvelles. Des exemples historiques, comme un employé financier malhonnête dans les années 1950, ou un ouvrier de l’usine volant des biens, existent depuis longtemps. Un point de discussion lors de la conférence était la tromperie par laquelle des entreprises technologiques américaines ont été dupées en embauchant des travailleurs à distance qui sont en réalité des opérateurs cybernétiques nord-coréens.

Cela souligne la nécessité d’une meilleure collaboration entre les équipes des ressources humaines, juridiques et de sécurité pour détecter les faux documents d’embauche et éliminer les vulnérabilités des plateformes de recrutement. Malheureusement, il existe un manque de conversations continues sur ces menaces émergentes.

La conférence RSAC a une fois de plus reflété l’état actuel de la cybersécurité, révélant des tendances et des défis cruciaux. Les modèles émergents d’IA et les menaces internes ont été des sujets de préoccupation majeurs, soulignant l’importance d’une responsabilité proactive et d’une gouvernance efficace.

Bien que les dirigeants de la sécurité ne puissent pas complètement atténuer les conséquences néfastes de l’IA ou des insiders malveillants, ils peuvent faire des progrès significatifs pour les contenir.

Articles

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...

Réglementation de l’UE sur l’IA : Vers une conformité stricte pour les modèles à risque

La Commission européenne a publié des directives pour aider les entreprises à se conformer à la loi sur l'intelligence artificielle de l'UE, qui entrera en vigueur le 2 août. Les entreprises doivent...

Risques systémiques des modèles d’IA : se conformer aux règles de l’UE

Les modèles d'IA présentent des risques systémiques qui doivent être pris en compte pour respecter les réglementations de l'UE sur l'IA. Ce document fournit des conseils sur la manière de se conformer...

Musiciens européens unis pour défendre leurs droits face à l’IA

Plus de 30 musiciens européens ont lancé une campagne vidéo unie pour demander à la Commission européenne de préserver l'intégrité de la loi sur l'IA de l'UE. Ils exigent le droit d'être informés et...

Les agents IA : un cauchemar de sécurité pour les entreprises

L'émergence des agents d'IA dans les applications d'entreprise introduit un nouveau type de trafic réseau complexe, rendant la visibilité et la sécurité plus difficiles. Cela souligne la nécessité...