AI Accède à des Données Qu’il Ne Devrait Pas
Selon le rapport 2025 State of AI Data Security de Cyera, l’adoption de l’IA dépasse de loin la gouvernance, la visibilité et les contrôles des données. Ce constat soulève des préoccupations majeures concernant la sécurité et la protection des données sensibles.
Résultats Clés du Rapport
Le rapport révèle que 83 % des 921 répondants utilisent déjà l’IA, mais seulement 13 % d’entre eux ont une visibilité forte sur la manière dont l’IA interagit avec les données sensibles de leur entreprise. De plus, seulement 9 % ont un système de surveillance en temps réel pour l’IA. Bien que 16 % disposent de politiques dédiées à l’IA, à peine 7 % ont mis en place un comité de gouvernance de l’IA. Ce manque de supervision peut entraîner des violations réglementaires et des fuites de données, ainsi que des dépassements de coûts.
Problèmes de Sécurité
Un problème majeur est que l’IA accède à des données qu’elle ne devrait pas. En effet, 66 % des répondants ont constaté que l’IA accédait de manière excessive à des données sensibles. Par exemple, un responsable commercial a remarqué qu’un copilote IA accédait à des informations sensibles sur les prix avant qu’un système de gestion des informations de sécurité et des événements (SIEM) ne le détecte. Cela s’est produit parce que l’IA avait reçu un accès par défaut sans garde-fous ni surveillance au niveau du prompt.
Le manque de détection en temps réel et de visibilité signifie que les comportements risqués de l’IA peuvent passer inaperçus, conduisant à des violations de données.
Conséquences de l’Absence de Contrôles
Parmi les répondants, 21 % ont déclaré que l’IA avait un accès large aux données par défaut. 33 % ont admis être conscients du manque de contrôles, mais seulement 9 % prévoient d’ajouter des capacités de blocage, tandis que 15 % déclarent qu’ils ne peuvent pas bloquer les abus. En l’absence de directives appropriées, l’IA peut accéder à des données sensibles et même les divulguer, perturbant ainsi l’efficacité opérationnelle.
Implications Réglementaires et de Confiance
Tous ces problèmes peuvent également entraîner des questions réglementaires et de confiance. Les clients seront moins enclins à faire affaire avec des entreprises qui ne sécurisent pas correctement leurs données, et les régulateurs peuvent imposer des amendes aux organisations qui ne respectent pas les lois sur la vie privée. Il existe également des coûts associés à la réponse aux incidents, aux dommages légaux et à l’impact commercial.
Il est crucial pour les entreprises de mettre en place des politiques de gouvernance de l’IA solides pour assurer la protection des données et maintenir la confiance des clients.