Gouvernance des données zéro confiance : protéger les modèles d’IA des dérives

A shattered glass prism with a digital lock embedded in its center

La nécessité d’une gouvernance des données en mode zéro confiance pour protéger les modèles d’IA

Les organisations doivent être moins confiantes envers les données, étant donné la quantité de données générées par l’IA, selon de nouvelles recherches.

Risques croissants avec l’IA générative

À mesure que de plus en plus d’entreprises adoptent l’IA générative, le risque augmente que les futurs modèles de langage (LLMs) soient formés sur des résultats provenant de modèles précédents, ce qui accroît le danger d’un phénomène appelé « effondrement de modèle ».

Recommandations pour une meilleure gestion des données

Pour éviter cela, il est recommandé aux entreprises d’apporter des modifications afin de gérer le risque de données non vérifiées. Cela inclut la nomination d’un responsable de la gouvernance de l’IA pour collaborer étroitement avec les équipes de données et d’analytique, ainsi que l’amélioration de la collaboration entre les départements par le biais de groupes transversaux incluant des représentants de la cybersécurité, des données et de l’analytique. De plus, il est conseillé de mettre à jour les politiques de sécurité et de gestion des données existantes pour faire face aux risques liés aux données générées par l’IA.

Prévisions pour l’avenir

Il est prévu qu’en 2028, 50 % des organisations devront adopter une posture de zéro confiance pour la gouvernance des données en raison de l’énorme vague de données non vérifiées générées par l’IA.

Défis réglementaires

Les exigences peuvent varier considérablement d’une région à l’autre, certaines juridictions cherchant à imposer des contrôles plus stricts sur le contenu généré par l’IA, tandis que d’autres adopteront une approche plus flexible. Un exemple notable des problèmes de gouvernance des données causés par l’IA est survenu lorsqu’une entreprise a dû rembourser une partie des frais d’un contrat gouvernemental en raison d’erreurs générées par l’IA, y compris des citations juridiques inexistantes dans son rapport final.

Conclusion

Les organisations ne peuvent plus faire confiance implicitement aux données ou supposer qu’elles ont été générées par des humains. À mesure que les données générées par l’IA deviennent omniprésentes et indiscernables des données créées par l’homme, il est essentiel d’établir des mesures d’authentification et de vérification pour protéger les résultats commerciaux et financiers.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...