La gouvernance de l’IA passe des conseils d’administration à la stratégie d’entreprise
Les organisations utilisent l’IA dans toute leur chaîne de valeur pour des applications internes ainsi que pour des interactions avec le public et les consommateurs. Les cas d’utilisation vont de l’embauche et la détection de fraude à l’assistance clientèle et la personnalisation.
En conséquence, le déploiement de l’IA est désormais inscrit à l’agenda des conseils d’administration. Des recherches montrent que les conseils d’administration ayant des compétences en IA affichent en moyenne 10,9 points de pourcentage de retour sur capitaux propres au-dessus de leurs pairs du secteur, faisant de l’IA un levier stratégique pour l’efficacité, la rapidité et l’avantage concurrentiel.
De l’avantage concurrentiel au risque de gouvernance
Cependant, l’intégration accrue de l’IA dans les fonctions organisationnelles essentielles et annexes introduit des risques structurels. Le contrôle des fournisseurs est l’un des nombreux exemples. Les données d’entreprise peuvent être réutilisées ou conservées par des outils d’IA tiers au-delà des finalités convenues, compromettant ainsi la confidentialité.
De plus, la dépendance à l’égard de l’IA tierce amplifie l’exposition réglementaire. En effet, les entreprises déployant l’IA sont susceptibles de rester responsables malgré une visibilité limitée sur la conception des modèles, les données d’entraînement ou les mises à jour du système.
Par ailleurs, le déploiement de l’IA soulève également des préoccupations en matière de confidentialité, alors que des données personnelles transitent par des systèmes opaques. Cela limite la conformité aux obligations de protection des données. Enfin, les hallucinations, les biais et les échecs d’exactitude peuvent produire des résultats trompeurs ou discriminatoires, et le manque de transparence concernant les tests et la remédiation complique encore ces défis.
Les risques de l’IA en pratique : leçons des déploiements récents
Les tribunaux et les régulateurs examinent de plus en plus les échecs liés à l’IA. Par exemple, une entreprise a été pénalisée après que son algorithme de classement a privilégié les offres d’hôtels des annonceurs payant des commissions plus élevées, même lorsque des options moins chères étaient disponibles. De plus, des risques ont également émergé de l’utilisation interne de l’IA. Des employés ont introduit des informations organisationnelles sensibles dans des outils d’IA générative, incitant les entreprises à recalibrer les contrôles autour de la confidentialité des données.
Les organisations renforcent leurs défenses en matière de gouvernance en établissant des comités de surveillance de l’IA, en émettant des politiques d’utilisation interne et en investissant dans la sensibilisation de la main-d’œuvre. Les évolutions réglementaires accélèrent encore ce changement. À mesure que la loi sur l’IA de l’UE évolue vers son application, il est souligné que les conseils d’administration doivent superviser la conception, le déploiement et la surveillance de l’IA comme partie intégrante de leurs fonctions de gouvernance.
De plus, il est soutenu que les conseils pourraient être tenus responsables des échecs liés à l’IA, en particulier lorsque l’IA : (i) sous-tend le modèle commercial, (ii) est centrale dans les opérations, (iii) est déployée dans des contextes à haut risque, ou (iv) produit un préjudice prévisible lors d’une utilisation normale.
Approche de l’Inde en matière de gouvernance de l’IA
L’Inde adopte une approche distincte et fondée sur des preuves en matière de gouvernance de l’IA. Plutôt que d’adopter un statut global sur l’IA, l’accent est mis sur l’opérationnalisation de principes communs pour une utilisation responsable de l’IA dans tous les secteurs. Ces principes ont d’abord été articulés par une institution bancaire dans son rapport de comité.
Le ministère de l’Électronique et de la Technologie de l’information a ensuite approuvé ces principes dans ses lignes directrices sur la gouvernance de l’IA en Inde. Ensemble, ces documents mettent l’accent sur la nécessité d’intégrer des principes de confiance, d’équité, de responsabilité, de transparence par conception et de sécurité pour gérer les risques liés à l’IA. Ces principes sont désormais traduits en attentes concrètes en matière de gouvernance.
Par exemple, il est recommandé aux entités réglementées d’adopter des politiques d’IA approuvées par le conseil d’administration, couvrant la gouvernance, l’éthique, la responsabilité et l’appétit pour le risque. De même, il est proposé que les participants au marché désignent un cadre supérieur responsable de la surveillance de l’IA tout au long de son cycle de vie, soutenu par des cadres de responsabilité clairs.
Ces cadres ne prescrivent pas une liste de contrôle unique. Cependant, ils signalent comment la direction devrait structurer la surveillance autour de l’adoption de l’IA.
Trois étapes pratiques pour les conseils d’administration
Pour déployer l’IA de manière responsable tout en maintenant l’agilité des affaires, les conseils d’administration peuvent prendre trois étapes :
Premièrement, évaluer l’utilisation de l’IA et adopter une politique de gouvernance de base. L’adoption responsable de l’IA commence par la visibilité organisationnelle. Les conseils d’administration devraient commander une cartographie à l’échelle de l’organisation sur l’utilisation de l’IA, son objectif et son impact potentiel.
Deuxièmement, traiter la transparence des fournisseurs et les garanties contractuelles comme une priorité de gouvernance. S’inspirant des délibérations politiques, les organisations déployant l’IA resteront probablement responsables des résultats générés par l’IA, même lorsque le modèle est fourni par un tiers.
Troisièmement, institutionnaliser les rapports au niveau du conseil, la surveillance continue et la réponse aux incidents. Les organisations devraient considérer le signalement des incidents liés à l’IA et la surveillance continue comme partie intégrante de leur stratégie de gouvernance.
Conclusion
Avec l’adoption croissante de l’IA, les conseils d’administration devraient commencer à réfléchir à la manière de gouverner l’IA de manière responsable à grande échelle. Les discussions politiques robustes offrent aux organisations des éclairages précieux pour formuler leur approche interne de gouvernance. Les acteurs précoces qui établissent des cadres favorisant la visibilité, garantissant la responsabilité et opérationnalisant des mécanismes d’escalade seront mieux positionnés pour tirer parti des avantages de l’IA tout en gérant efficacement ses risques.