Intelligence Artificielle : Défis et Menaces dans la Cybersécurité

A digital shield

RSAC 2025 : Intelligence Artificielle, Lacunes de Gouvernance et Menaces Internes

L’Intelligence Artificielle (IA) a été le thème central de la conférence RSAC de cette année, révélant son omniprésence dans toutes les discussions liées à la cybersécurité. Avec près de 44 000 participants, 730 intervenants, 650 exposants et 400 membres des médias, il est clair que l’IA est devenue un sujet incontournable dans le domaine de la sécurité.

Au-delà des attentes initiales concernant la domination de l’IA dans les discussions, il a été noté que cette technologie pénètre profondément chaque mise à jour d’entreprise, chaque séance de stratégie, et même les conversations informelles. Cette situation soulève des questions quant à la frontière entre réalité et hype.

Adoption Généralisée de l’IA en Cybersécurité

Nous avons assisté à une transition, non officielle, de la phase de preuve de concept vers une implémentation agressive. Selon des recherches de la Cloud Security Alliance (CSA), 90% des organisations adoptent actuellement l’IA générative pour la sécurité ou prévoient de le faire. La majorité des professionnels de l’IT et de la sécurité croient que ces technologies peuvent améliorer leurs compétences et leur permettre de se concentrer sur des missions plus enrichissantes.

Cependant, les cybercriminels exploitent également cette innovation, faisant de l’IA-enhanced malware un risque majeur pour les entreprises. Cela met en place un véritable scénario de Spy vs. Spy, où les « bons » et les « mauvais » s’affrontent dans une course technologique.

Le terme IA agentique a suscité de nombreuses discussions. Ce type d’IA agit de manière autonome pour atteindre des objectifs sans supervision humaine constante, mais il est difficile de déterminer si cela représente une véritable innovation ou simplement un marketing repackagé.

Lacunes dans la Gouvernance de l’IA en Entreprise

Les comités de gouvernance de l’IA se concentrent souvent sur des préoccupations de vie privée et de sécurité, ignorant des considérations plus larges comme la responsabilité légale, l’exposition au licenciement, et l’utilisation appropriée des outils d’IA. Cela conduit à l’approbation d’outils d’IA sans évaluation complète des risques.

Actuellement, les dirigeants se concentrent sur des opérations sécurisées utilisant des modèles locaux et des réponses aux incidents, mais ils doivent évoluer vers une planification de l’IA à l’échelle de l’entreprise, guidée par des objectifs stratégiques plutôt que par une exécution fonctionnelle.

Prolifération des Menaces Internes

Les menaces internes ne sont pas nouvelles. Des exemples historiques, comme un employé financier malhonnête dans les années 1950, ou un ouvrier de l’usine volant des biens, existent depuis longtemps. Un point de discussion lors de la conférence était la tromperie par laquelle des entreprises technologiques américaines ont été dupées en embauchant des travailleurs à distance qui sont en réalité des opérateurs cybernétiques nord-coréens.

Cela souligne la nécessité d’une meilleure collaboration entre les équipes des ressources humaines, juridiques et de sécurité pour détecter les faux documents d’embauche et éliminer les vulnérabilités des plateformes de recrutement. Malheureusement, il existe un manque de conversations continues sur ces menaces émergentes.

La conférence RSAC a une fois de plus reflété l’état actuel de la cybersécurité, révélant des tendances et des défis cruciaux. Les modèles émergents d’IA et les menaces internes ont été des sujets de préoccupation majeurs, soulignant l’importance d’une responsabilité proactive et d’une gouvernance efficace.

Bien que les dirigeants de la sécurité ne puissent pas complètement atténuer les conséquences néfastes de l’IA ou des insiders malveillants, ils peuvent faire des progrès significatifs pour les contenir.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...