Adoption de la gouvernance des données zéro confiance face à l’essor de l’IA

A shattered glass keychain with half of its keys replaced by digital tokens

50 % des organisations prêtes à adopter une gouvernance des données zéro confiance face à l’augmentation des données générées par l’IA non vérifiées

Face à la montée en puissance des données non vérifiées créées par l’intelligence artificielle, il est prévu que la moitié (50 %) des organisations mondiales adoptent une posture de zéro confiance pour la gouvernance des données d’ici 2028.

Une approche nécessaire

Le responsable souligne que l’ère où les organisations pouvaient se fier à une confiance implicite ou à l’hypothèse que les données proviennent de sources humaines est révolue. Avec la prolifération des contenus générés par l’IA, il est désormais vital d’adopter une approche de zéro confiance qui priorise des protocoles d’authentification et de vérification stricts pour protéger l’intégrité des affaires.

Risques accrus liés aux données générées par l’IA

Les données générées par l’IA augmentent les risques d’échecs de modèles et élargissent les exigences en matière de conformité. Les modèles de langage de grande taille (LLM) reposent traditionnellement sur de vastes ensembles de données acquises par des techniques de « web-scraping », mais il est constaté que plusieurs de ces sources fondamentales sont déjà imprégnées de contenus générés par l’IA.

Si ces tendances se maintiennent, la majorité des dépôts de données numériques seront inévitablement saturés d’informations produites par l’IA.

Identification des données générées par l’IA

La montée de la disponibilité des contenus générés par l’IA devrait intensifier les exigences réglementaires concernant la vérification des données « sans IA ». Les exigences légales varieront probablement selon les régions. Certaines juridictions pourraient mettre en œuvre des contrôles rigoureux, tandis que d’autres pourraient adopter un cadre réglementaire plus flexible.

Stratégies pour gérer les risques des données non vérifiées

Les organisations doivent envisager diverses approches stratégiques pour aborder les risques posés par les données non vérifiées :

  • Désigner un responsable de la gouvernance de l’IA :

    Créer un rôle spécifique axé sur la gouvernance de l’IA, comprenant des politiques de zéro confiance, la gestion des risques de l’IA et les opérations de conformité.

  • Encourager la collaboration interfonctionnelle :

    Former des équipes interfonctionnelles comprenant la cybersécurité et l’analyse des données pour évaluer les risques associés aux données générées par l’IA.

  • Utiliser les politiques de gouvernance existantes :

    Améliorer les cadres de gouvernance des données et d’analyse en mettant à jour les politiques de sécurité et de gestion des métadonnées pour faire face aux nouveaux risques.

  • Mettre en œuvre des pratiques actives de gestion des métadonnées :

    Cela permet d’envoyer des alertes en temps réel lorsque les données deviennent obsolètes, permettant aux organisations de repérer rapidement les systèmes critiques à risque en raison de données inexactes ou biaisées.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...