OpenText met en garde contre l’écart en matière de sécurité et de gouvernance de l’IA
Une étude publiée par OpenText en collaboration avec l’institut Ponemon révèle que de nombreuses organisations déploient de l’IA générative sans mettre en place les mesures de sécurité et de gouvernance appropriées. Selon l’enquête, 52 % des entreprises ont déployé l’IA générative de manière complète ou partielle.
Écart de gouvernance
Seule une entreprise sur cinq a atteint ce que l’étude décrit comme la maturité de l’IA en matière de cybersécurité, avec une IA entièrement déployée dans les activités de sécurité et les risques évalués. Près de 80 % des organisations (79 %) n’ont pas atteint ce stade.
L’adoption des politiques reste également limitée. Juste 41 % des organisations disposent de politiques de confidentialité des données spécifiques à l’IA, tandis que 43 % ont adopté une approche de gouvernance basée sur les risques, couvrant des questions telles que les biais, les menaces de sécurité et les préoccupations éthiques.
Le rapport indique que le rythme de mise en œuvre dépasse les contrôles internes. Près de 60 % des répondants (59 %) affirment que l’IA rend plus difficile le respect des réglementations en matière de confidentialité et de sécurité, mais la plupart des organisations n’ont pas introduit de règles de confidentialité dédiées aux systèmes d’IA.
Préoccupations opérationnelles
Les préoccupations opérationnelles sont également importantes. Cinquante-huit pour cent des répondants ont déclaré que les risques liés aux invites ou aux entrées, y compris les réponses trompeuses ou nuisibles, étaient très ou extrêmement difficiles à minimiser. Plus de la moitié (56 %) ont signalé des difficultés à gérer les risques pour les utilisateurs, y compris la propagation involontaire de désinformation.
Problèmes de confiance
L’étude a également examiné si les systèmes d’IA apportent les avantages escomptés dans les opérations de sécurité. Seulement 51 % des répondants estiment que l’IA est efficace pour réduire le temps nécessaire à la détection d’anomalies ou de menaces émergentes.
La confiance était plus faible pour des utilisations plus avancées. Moins de la moitié (48 %) ont évalué l’IA comme efficace pour la détection des menaces et l’exploration d’informations plus profondes tout en réduisant le travail manuel.
Les biais et la fiabilité demeurent des obstacles majeurs. Près des deux tiers des répondants (62 %) ont déclaré qu’il était très ou extrêmement difficile de minimiser les risques de modèle et de biais, y compris les résultats injustes ou discriminatoires.
D’autres obstacles concernent la manière dont les systèmes d’IA sont construits et utilisés. 45 % ont cité les erreurs dans les règles de décision de l’IA comme un problème majeur, tandis que 40 % ont mentionné des erreurs dans les données alimentées dans les systèmes d’IA.
Vers une autonomie totale de l’IA
Pour de nombreuses entreprises, l’IA totalement autonome semble encore lointaine. Seulement 47 % ont déclaré que leurs modèles d’IA peuvent apprendre des normes robustes et prendre des décisions sûres de manière autonome, tandis que 51 % estiment qu’une supervision humaine est nécessaire dans la gouvernance de l’IA en raison de l’adaptabilité rapide des attaquants.
Il est souligné que la maturité de l’IA ne se limite pas à l’adoption d’outils d’IA, mais implique une mise en œuvre responsable. La sécurité et la gouvernance doivent être intégrées dès le départ.
Conclusion
Les organisations qui réussiront dans la prochaine phase d’adoption de l’IA seront celles qui aborderont la gouvernance dès le début. L’intégration de la transparence et du contrôle dans l’IA dès le départ est essentielle pour garantir que les systèmes d’IA restent fiables et conformes.