AI Accède à des Données Qu’il Ne Devrait Pas

Selon le rapport 2025 State of AI Data Security de Cyera, l’adoption de l’IA dépasse de loin la gouvernance, la visibilité et les contrôles des données. Ce constat soulève des préoccupations majeures concernant la sécurité et la protection des données sensibles.

Résultats Clés du Rapport

Le rapport révèle que 83 % des 921 répondants utilisent déjà l’IA, mais seulement 13 % d’entre eux ont une visibilité forte sur la manière dont l’IA interagit avec les données sensibles de leur entreprise. De plus, seulement 9 % ont un système de surveillance en temps réel pour l’IA. Bien que 16 % disposent de politiques dédiées à l’IA, à peine 7 % ont mis en place un comité de gouvernance de l’IA. Ce manque de supervision peut entraîner des violations réglementaires et des fuites de données, ainsi que des dépassements de coûts.

Problèmes de Sécurité

Un problème majeur est que l’IA accède à des données qu’elle ne devrait pas. En effet, 66 % des répondants ont constaté que l’IA accédait de manière excessive à des données sensibles. Par exemple, un responsable commercial a remarqué qu’un copilote IA accédait à des informations sensibles sur les prix avant qu’un système de gestion des informations de sécurité et des événements (SIEM) ne le détecte. Cela s’est produit parce que l’IA avait reçu un accès par défaut sans garde-fous ni surveillance au niveau du prompt.

Le manque de détection en temps réel et de visibilité signifie que les comportements risqués de l’IA peuvent passer inaperçus, conduisant à des violations de données.

Conséquences de l’Absence de Contrôles

Parmi les répondants, 21 % ont déclaré que l’IA avait un accès large aux données par défaut. 33 % ont admis être conscients du manque de contrôles, mais seulement 9 % prévoient d’ajouter des capacités de blocage, tandis que 15 % déclarent qu’ils ne peuvent pas bloquer les abus. En l’absence de directives appropriées, l’IA peut accéder à des données sensibles et même les divulguer, perturbant ainsi l’efficacité opérationnelle.

Implications Réglementaires et de Confiance

Tous ces problèmes peuvent également entraîner des questions réglementaires et de confiance. Les clients seront moins enclins à faire affaire avec des entreprises qui ne sécurisent pas correctement leurs données, et les régulateurs peuvent imposer des amendes aux organisations qui ne respectent pas les lois sur la vie privée. Il existe également des coûts associés à la réponse aux incidents, aux dommages légaux et à l’impact commercial.

Il est crucial pour les entreprises de mettre en place des politiques de gouvernance de l’IA solides pour assurer la protection des données et maintenir la confiance des clients.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...