RSAC 2025 : Intelligence Artificielle, Lacunes de Gouvernance et Menaces Internes
L’Intelligence Artificielle (IA) a été le thème central de la conférence RSAC de cette année, révélant son omniprésence dans toutes les discussions liées à la cybersécurité. Avec près de 44 000 participants, 730 intervenants, 650 exposants et 400 membres des médias, il est clair que l’IA est devenue un sujet incontournable dans le domaine de la sécurité.
Au-delà des attentes initiales concernant la domination de l’IA dans les discussions, il a été noté que cette technologie pénètre profondément chaque mise à jour d’entreprise, chaque séance de stratégie, et même les conversations informelles. Cette situation soulève des questions quant à la frontière entre réalité et hype.
Adoption Généralisée de l’IA en Cybersécurité
Nous avons assisté à une transition, non officielle, de la phase de preuve de concept vers une implémentation agressive. Selon des recherches de la Cloud Security Alliance (CSA), 90% des organisations adoptent actuellement l’IA générative pour la sécurité ou prévoient de le faire. La majorité des professionnels de l’IT et de la sécurité croient que ces technologies peuvent améliorer leurs compétences et leur permettre de se concentrer sur des missions plus enrichissantes.
Cependant, les cybercriminels exploitent également cette innovation, faisant de l’IA-enhanced malware un risque majeur pour les entreprises. Cela met en place un véritable scénario de Spy vs. Spy, où les « bons » et les « mauvais » s’affrontent dans une course technologique.
Le terme IA agentique a suscité de nombreuses discussions. Ce type d’IA agit de manière autonome pour atteindre des objectifs sans supervision humaine constante, mais il est difficile de déterminer si cela représente une véritable innovation ou simplement un marketing repackagé.
Lacunes dans la Gouvernance de l’IA en Entreprise
Les comités de gouvernance de l’IA se concentrent souvent sur des préoccupations de vie privée et de sécurité, ignorant des considérations plus larges comme la responsabilité légale, l’exposition au licenciement, et l’utilisation appropriée des outils d’IA. Cela conduit à l’approbation d’outils d’IA sans évaluation complète des risques.
Actuellement, les dirigeants se concentrent sur des opérations sécurisées utilisant des modèles locaux et des réponses aux incidents, mais ils doivent évoluer vers une planification de l’IA à l’échelle de l’entreprise, guidée par des objectifs stratégiques plutôt que par une exécution fonctionnelle.
Prolifération des Menaces Internes
Les menaces internes ne sont pas nouvelles. Des exemples historiques, comme un employé financier malhonnête dans les années 1950, ou un ouvrier de l’usine volant des biens, existent depuis longtemps. Un point de discussion lors de la conférence était la tromperie par laquelle des entreprises technologiques américaines ont été dupées en embauchant des travailleurs à distance qui sont en réalité des opérateurs cybernétiques nord-coréens.
Cela souligne la nécessité d’une meilleure collaboration entre les équipes des ressources humaines, juridiques et de sécurité pour détecter les faux documents d’embauche et éliminer les vulnérabilités des plateformes de recrutement. Malheureusement, il existe un manque de conversations continues sur ces menaces émergentes.
La conférence RSAC a une fois de plus reflété l’état actuel de la cybersécurité, révélant des tendances et des défis cruciaux. Les modèles émergents d’IA et les menaces internes ont été des sujets de préoccupation majeurs, soulignant l’importance d’une responsabilité proactive et d’une gouvernance efficace.
Bien que les dirigeants de la sécurité ne puissent pas complètement atténuer les conséquences néfastes de l’IA ou des insiders malveillants, ils peuvent faire des progrès significatifs pour les contenir.