Comment les investisseurs activistes pourraient transformer l’utilisation de l’IA en un test de gouvernance
Les investisseurs activistes pourraient bientôt commencer à examiner de près la manière dont les conseils d’administration utilisent l’IA, tout comme ils le font pour les critères environnementaux, sociaux et de gouvernance (ESG) ainsi que pour la cybersécurité. La question centrale n’est pas l’efficacité, mais l’efficacité fiduciaire.
Transparence et outils disponibles
Les exigences de transparence concernant l’IA se concentreront sur la capacité des administrateurs à utiliser pleinement les outils disponibles pour remplir leurs devoirs. Avec les outils d’IA, il est beaucoup plus facile de collecter des données, d’établir des références, de mener des recherches et d’effectuer des analyses de scénarios. L’attention sera portée sur la façon dont les administrateurs utilisent efficacement l’IA pour s’acquitter de leurs responsabilités.
Évolution vers la responsabilité juridique
Cette attente pourrait éventuellement se traduire par des implications juridiques. L’absence d’utilisation de l’IA pourrait être interprétée comme une violation des devoirs fiduciaires, en particulier si un conseil d’administration ne parvient pas à atteindre ses objectifs et à préserver la valeur pour les actionnaires.
Compétence en IA comme critère de jugement
La compétence en IA sera un critère de plus en plus important pour évaluer les conseils d’administration. Ces derniers devront comprendre comment l’IA affecte les différents aspects de l’entreprise, des chaînes d’approvisionnement aux opportunités de marché. Pour participer à ces discussions, les conseils devront disposer d’un niveau de compétence de base en IA.
Éducation et risques associés
Les conseils d’administration doivent traiter l’éducation en matière d’IA de la même manière qu’ils traitent d’autres sujets de gouvernance essentiels. Actuellement, de nombreux administrateurs utilisent déjà des outils d’IA sans directives formelles, ce qui entraîne des risques de gouvernance et de confidentialité.
Des recherches montrent qu’environ 66 % des administrateurs utilisent des outils d’IA open-source pour résumer des documents, tandis que seulement 20 % ont des politiques d’utilisation de l’IA. Cet écart expose les entreprises à des risques en matière de confidentialité et de privilège avocat-client.
Pratiques de documentation et de rétention
La transcription des réunions du conseil avec l’IA soulève des préoccupations similaires, notamment en matière de confidentialité et de découverte juridique. Les conseils d’administration doivent établir des politiques de rétention solides et des meilleures pratiques une fois les réunions terminées.
Conclusion sur l’utilisation de l’IA
Ne pas utiliser l’IA pourrait être considéré comme une violation des devoirs fiduciaires, surtout si des outils sont facilement disponibles pour améliorer la qualité des décisions. Les conseils d’administration doivent réfléchir à la manière dont ils documentent leur supervision de l’IA et intégrer l’éducation sur ce sujet dans leur développement continu.
À mesure que l’IA devient plus intégrée dans la gouvernance, le rôle des conseillers juridiques évolue également, s’orientant vers la gestion des risques d’entreprise. La culture au sein des organisations pourrait constituer un obstacle majeur à l’adoption de l’IA. Alors que les conseils, les investisseurs et les régulateurs recalibrent leurs attentes, la question pourrait ne plus être de savoir si les administrateurs peuvent utiliser l’IA, mais plutôt s’ils peuvent justifier de ne pas l’utiliser.