Gouvernance de l’IA : Stratégies pour un avenir responsable

A futuristic, transparent chessboard with AI-driven pieces that adapt their moves based on real-time business data feeds

La gouvernance de l’IA passe des conseils d’administration à la stratégie d’entreprise

Les organisations utilisent l’IA dans toute leur chaîne de valeur pour des applications internes ainsi que pour des interactions avec le public et les consommateurs. Les cas d’utilisation vont de l’embauche et la détection de fraude à l’assistance clientèle et la personnalisation.

En conséquence, le déploiement de l’IA est désormais inscrit à l’agenda des conseils d’administration. Des recherches montrent que les conseils d’administration ayant des compétences en IA affichent en moyenne 10,9 points de pourcentage de retour sur capitaux propres au-dessus de leurs pairs du secteur, faisant de l’IA un levier stratégique pour l’efficacité, la rapidité et l’avantage concurrentiel.

De l’avantage concurrentiel au risque de gouvernance

Cependant, l’intégration accrue de l’IA dans les fonctions organisationnelles essentielles et annexes introduit des risques structurels. Le contrôle des fournisseurs est l’un des nombreux exemples. Les données d’entreprise peuvent être réutilisées ou conservées par des outils d’IA tiers au-delà des finalités convenues, compromettant ainsi la confidentialité.

De plus, la dépendance à l’égard de l’IA tierce amplifie l’exposition réglementaire. En effet, les entreprises déployant l’IA sont susceptibles de rester responsables malgré une visibilité limitée sur la conception des modèles, les données d’entraînement ou les mises à jour du système.

Par ailleurs, le déploiement de l’IA soulève également des préoccupations en matière de confidentialité, alors que des données personnelles transitent par des systèmes opaques. Cela limite la conformité aux obligations de protection des données. Enfin, les hallucinations, les biais et les échecs d’exactitude peuvent produire des résultats trompeurs ou discriminatoires, et le manque de transparence concernant les tests et la remédiation complique encore ces défis.

Les risques de l’IA en pratique : leçons des déploiements récents

Les tribunaux et les régulateurs examinent de plus en plus les échecs liés à l’IA. Par exemple, une entreprise a été pénalisée après que son algorithme de classement a privilégié les offres d’hôtels des annonceurs payant des commissions plus élevées, même lorsque des options moins chères étaient disponibles. De plus, des risques ont également émergé de l’utilisation interne de l’IA. Des employés ont introduit des informations organisationnelles sensibles dans des outils d’IA générative, incitant les entreprises à recalibrer les contrôles autour de la confidentialité des données.

Les organisations renforcent leurs défenses en matière de gouvernance en établissant des comités de surveillance de l’IA, en émettant des politiques d’utilisation interne et en investissant dans la sensibilisation de la main-d’œuvre. Les évolutions réglementaires accélèrent encore ce changement. À mesure que la loi sur l’IA de l’UE évolue vers son application, il est souligné que les conseils d’administration doivent superviser la conception, le déploiement et la surveillance de l’IA comme partie intégrante de leurs fonctions de gouvernance.

De plus, il est soutenu que les conseils pourraient être tenus responsables des échecs liés à l’IA, en particulier lorsque l’IA : (i) sous-tend le modèle commercial, (ii) est centrale dans les opérations, (iii) est déployée dans des contextes à haut risque, ou (iv) produit un préjudice prévisible lors d’une utilisation normale.

Approche de l’Inde en matière de gouvernance de l’IA

L’Inde adopte une approche distincte et fondée sur des preuves en matière de gouvernance de l’IA. Plutôt que d’adopter un statut global sur l’IA, l’accent est mis sur l’opérationnalisation de principes communs pour une utilisation responsable de l’IA dans tous les secteurs. Ces principes ont d’abord été articulés par une institution bancaire dans son rapport de comité.

Le ministère de l’Électronique et de la Technologie de l’information a ensuite approuvé ces principes dans ses lignes directrices sur la gouvernance de l’IA en Inde. Ensemble, ces documents mettent l’accent sur la nécessité d’intégrer des principes de confiance, d’équité, de responsabilité, de transparence par conception et de sécurité pour gérer les risques liés à l’IA. Ces principes sont désormais traduits en attentes concrètes en matière de gouvernance.

Par exemple, il est recommandé aux entités réglementées d’adopter des politiques d’IA approuvées par le conseil d’administration, couvrant la gouvernance, l’éthique, la responsabilité et l’appétit pour le risque. De même, il est proposé que les participants au marché désignent un cadre supérieur responsable de la surveillance de l’IA tout au long de son cycle de vie, soutenu par des cadres de responsabilité clairs.

Ces cadres ne prescrivent pas une liste de contrôle unique. Cependant, ils signalent comment la direction devrait structurer la surveillance autour de l’adoption de l’IA.

Trois étapes pratiques pour les conseils d’administration

Pour déployer l’IA de manière responsable tout en maintenant l’agilité des affaires, les conseils d’administration peuvent prendre trois étapes :

Premièrement, évaluer l’utilisation de l’IA et adopter une politique de gouvernance de base. L’adoption responsable de l’IA commence par la visibilité organisationnelle. Les conseils d’administration devraient commander une cartographie à l’échelle de l’organisation sur l’utilisation de l’IA, son objectif et son impact potentiel.

Deuxièmement, traiter la transparence des fournisseurs et les garanties contractuelles comme une priorité de gouvernance. S’inspirant des délibérations politiques, les organisations déployant l’IA resteront probablement responsables des résultats générés par l’IA, même lorsque le modèle est fourni par un tiers.

Troisièmement, institutionnaliser les rapports au niveau du conseil, la surveillance continue et la réponse aux incidents. Les organisations devraient considérer le signalement des incidents liés à l’IA et la surveillance continue comme partie intégrante de leur stratégie de gouvernance.

Conclusion

Avec l’adoption croissante de l’IA, les conseils d’administration devraient commencer à réfléchir à la manière de gouverner l’IA de manière responsable à grande échelle. Les discussions politiques robustes offrent aux organisations des éclairages précieux pour formuler leur approche interne de gouvernance. Les acteurs précoces qui établissent des cadres favorisant la visibilité, garantissant la responsabilité et opérationnalisant des mécanismes d’escalade seront mieux positionnés pour tirer parti des avantages de l’IA tout en gérant efficacement ses risques.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...