Écart de sécurité et de gouvernance dans l’adoption de l’IA

A shattered, glowing circuit board with a digital lock and key floating above it

OpenText met en garde contre l’écart en matière de sécurité et de gouvernance de l’IA

Une étude publiée par OpenText en collaboration avec l’institut Ponemon révèle que de nombreuses organisations déploient de l’IA générative sans mettre en place les mesures de sécurité et de gouvernance appropriées. Selon l’enquête, 52 % des entreprises ont déployé l’IA générative de manière complète ou partielle.

Écart de gouvernance

Seule une entreprise sur cinq a atteint ce que l’étude décrit comme la maturité de l’IA en matière de cybersécurité, avec une IA entièrement déployée dans les activités de sécurité et les risques évalués. Près de 80 % des organisations (79 %) n’ont pas atteint ce stade.

L’adoption des politiques reste également limitée. Juste 41 % des organisations disposent de politiques de confidentialité des données spécifiques à l’IA, tandis que 43 % ont adopté une approche de gouvernance basée sur les risques, couvrant des questions telles que les biais, les menaces de sécurité et les préoccupations éthiques.

Le rapport indique que le rythme de mise en œuvre dépasse les contrôles internes. Près de 60 % des répondants (59 %) affirment que l’IA rend plus difficile le respect des réglementations en matière de confidentialité et de sécurité, mais la plupart des organisations n’ont pas introduit de règles de confidentialité dédiées aux systèmes d’IA.

Préoccupations opérationnelles

Les préoccupations opérationnelles sont également importantes. Cinquante-huit pour cent des répondants ont déclaré que les risques liés aux invites ou aux entrées, y compris les réponses trompeuses ou nuisibles, étaient très ou extrêmement difficiles à minimiser. Plus de la moitié (56 %) ont signalé des difficultés à gérer les risques pour les utilisateurs, y compris la propagation involontaire de désinformation.

Problèmes de confiance

L’étude a également examiné si les systèmes d’IA apportent les avantages escomptés dans les opérations de sécurité. Seulement 51 % des répondants estiment que l’IA est efficace pour réduire le temps nécessaire à la détection d’anomalies ou de menaces émergentes.

La confiance était plus faible pour des utilisations plus avancées. Moins de la moitié (48 %) ont évalué l’IA comme efficace pour la détection des menaces et l’exploration d’informations plus profondes tout en réduisant le travail manuel.

Les biais et la fiabilité demeurent des obstacles majeurs. Près des deux tiers des répondants (62 %) ont déclaré qu’il était très ou extrêmement difficile de minimiser les risques de modèle et de biais, y compris les résultats injustes ou discriminatoires.

D’autres obstacles concernent la manière dont les systèmes d’IA sont construits et utilisés. 45 % ont cité les erreurs dans les règles de décision de l’IA comme un problème majeur, tandis que 40 % ont mentionné des erreurs dans les données alimentées dans les systèmes d’IA.

Vers une autonomie totale de l’IA

Pour de nombreuses entreprises, l’IA totalement autonome semble encore lointaine. Seulement 47 % ont déclaré que leurs modèles d’IA peuvent apprendre des normes robustes et prendre des décisions sûres de manière autonome, tandis que 51 % estiment qu’une supervision humaine est nécessaire dans la gouvernance de l’IA en raison de l’adaptabilité rapide des attaquants.

Il est souligné que la maturité de l’IA ne se limite pas à l’adoption d’outils d’IA, mais implique une mise en œuvre responsable. La sécurité et la gouvernance doivent être intégrées dès le départ.

Conclusion

Les organisations qui réussiront dans la prochaine phase d’adoption de l’IA seront celles qui aborderont la gouvernance dès le début. L’intégration de la transparence et du contrôle dans l’IA dès le départ est essentielle pour garantir que les systèmes d’IA restent fiables et conformes.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...