french
Quelles sont les caractéristiques déterminantes de l’écosystème émergent de l’audit de l’éthique de l’IA ?
L’écosystème de l’audit de l’éthique de l’IA croît rapidement, sous l’impulsion des réglementations imminentes et d’un désir de surveillance interne et externe. Ce nouveau paysage comprend des auditeurs internes et externes (des startups aux cabinets comptables du « Big Four »), des cadres d’audit, des évaluations des risques et des impacts, des organisations de normalisation (IEEE, ISO), des fournisseurs de SaaS et des organisations à but non lucratif développant des critères d’audit et des certifications.
Principales conclusions tirées du terrain
Notre recherche, qui comprend des entretiens avec 34 auditeurs de l’éthique de l’IA dans sept pays, révèle plusieurs caractéristiques déterminantes :
- Processus d’audit : Les audits de l’éthique de l’IA suivent largement le modèle de l’audit financier : planification, exécution et reporting.
- Orientation technique : Les audits sont fortement axés sur les principes techniques de l’éthique de l’IA tels que les biais, la confidentialité et l’explicabilité, ce qui reflète l’accent mis par la réglementation sur la gestion des risques techniques. Cela peut entraîner la négligence d’autres dimensions éthiques importantes.
- Engagement des parties prenantes : Il y a un manque d’implication robuste des parties prenantes, en particulier du public et des groupes vulnérables. L’engagement est généralement concentré sur les équipes techniques, la gestion des risques et le personnel juridique, plutôt que sur un apport public diversifié.
- Défis de mesure : Définir et mesurer le succès des audits de l’éthique de l’IA reste un défi. De nombreux auditeurs manquent de critères quantitatifs ou qualitatifs spécifiques au-delà de la réalisation du rapport d’audit lui-même. Les améliorations de la sensibilisation ou des capacités organisationnelles sont considérées comme des indicateurs significatifs.
- Reporting externe limité : Les rapports finaux sont presque entièrement internes, destinés au personnel technique ou aux chefs d’entreprise. Le reporting externe pour la transparence publique ou la conformité réglementaire est rare.
Préoccupations et moteurs réglementaires
Les exigences réglementaires sont le moteur le plus important de l’adoption des audits de l’éthique de l’IA, en particulier l’EU AI Act. Les risques de réputation et un désir de culture d’entreprise éthique sont également des facteurs de motivation, bien que souvent secondaires. Des réglementations telles que la norme britannique de transparence algorithmique (UK Algorithmic Transparency Standard), le cadre américain de gestion des risques liés à l’IA du NIST (US NIST AI Risk Management Framework) et la loi locale 144 de la ville de New York (New York City Local Law 144) jouent également un rôle.
Implications pratiques et défis
Les auditeurs sont confrontés à plusieurs obstacles, notamment :
- Coordination interdisciplinaire : La gestion d’équipes diverses avec des priorités concurrentes est un défi majeur.
- Contraintes de ressources : Les entreprises manquent souvent de ressources et de personnel suffisants pour se consacrer à l’éthique et à la gouvernance de l’IA.
- Infrastructure de données : Une infrastructure technique et de données inadéquate entrave l’audit efficace, ce qui rend difficile la localisation, l’accès et l’analyse des données et des modèles pertinents.
- Ambiguïté réglementaire : Une ambiguïté importante dans l’interprétation des réglementations et des normes, associée à un manque de meilleures pratiques et d’orientations réglementaires praticables, complique le processus d’audit.
Malgré ces défis, les auditeurs de l’éthique de l’IA jouent un rôle essentiel dans la construction de l’écosystème en développant des cadres d’audit, en interprétant les réglementations, en organisant les meilleures pratiques et en partageant leurs connaissances avec les parties prenantes. Ils servent de traducteurs entre la technologie, l’éthique et la politique, faisant progresser le domaine même en période d’incertitude.
Quelles motivations et processus sous-tendent l’utilisation de l’audit d’éthique de l’IA au sein des organisations ?
L’écosystème de l’audit d’éthique de l’IA évolue rapidement, sous l’impulsion de l’anticipation des mandats réglementaires et du besoin croissant de pratiques d’IA responsables. Mais qu’est-ce qui motive réellement les organisations à investir dans ces audits, et à quoi ressemblent ces processus sur le terrain ?
Facteurs réglementaires
Le principal facteur motivant l’adoption des audits d’éthique de l’IA semble être la conformité réglementaire. Les personnes interrogées ont souligné que l’AI Act de l’UE est un moteur essentiel, susceptible de créer un précédent mondial. Parmi les autres cadres réglementaires influençant les activités d’audit, on peut citer :
- La Norme de transparence algorithmique du Royaume-Uni
- Le Cadre de gestion des risques liés à l’IA de l’Institut national américain des normes et de la technologie (NIST)
- La loi locale 144 de New York sur les décisions automatisées en matière d’emploi
- La SR117 américaine sur la gestion des risques liés aux modèles (pour le secteur financier)
Cependant, l’urgence perçue de ces réglementations varie d’une organisation à l’autre. Certaines entreprises adoptent une approche proactive, tandis que d’autres adoptent une position réactive, en attendant une application plus stricte.
Risque Réputationnel et Considérations Éthiques
Au-delà de la conformité, le risque réputationnel est un autre facteur essentiel. Les entreprises sont de plus en plus conscientes des réactions négatives potentielles du public et cherchent à renforcer la confiance de leurs clients et de leurs employés en démontrant des pratiques d’IA éthiques. Cette motivation s’aligne parfois sur un désir de culture éthique plus forte, dépassant même les exigences réglementaires. Certaines organisations reconnaissent qu’un audit approprié de l’éthique de l’IA est essentiel à la performance même de l’IA.
Le processus d’audit : une approche en trois phases
Les audits d’éthique de l’IA suivent généralement les étapes des audits financiers : la planification, la réalisation et la présentation des rapports. Cependant, des lacunes critiques existent, notamment en ce qui concerne l’engagement des parties prenantes, la mesure cohérente et claire du succès et la communication externe.
Planification : La portée de l’audit est déterminée en collaboration entre les auditeurs et les clients. Il existe deux approches principales :
- Audits de gouvernance : Se concentrent sur un large éventail de systèmes d’IA, de processus de développement et de structures organisationnelles.
- Audits algorithmiques : Se concentrent sur les données, les performances et les résultats de systèmes ou d’algorithmes d’IA spécifiques.
L’engagement des parties prenantes au cours de la planification se concentre généralement sur les équipes techniques (scientifiques des données, ingénieurs en apprentissage automatique) et les professionnels de la gestion des risques et de la conformité. L’engagement plus large avec le public ou les groupes vulnérables est rare.
Réalisation : La gestion des risques et la validation des modèles sont les activités principales. L’identification des risques est accentuée, souvent au moyen de tableaux de bord et de questionnaires. La validation des modèles comprend l’analyse des impacts disproportionnés et les tests d’équité algorithmique. Cependant, l’étendue de la validation des modèles dépend de l’accès aux données et de l’infrastructure de gouvernance. La conformité et les objectifs sont souvent déterminés en fonction des réglementations.
Présentation des rapports : La plupart des audits produisent des rapports techniques principalement destinés à un public interne. La communication externe à des fins de transparence ou de conformité réglementaire est rare. Des mesures claires pour évaluer la réussite de l’audit font souvent défaut, et de nombreux auditeurs n’avaient pas de mesures spécifiques de réussite.
Défis et ambiguïtés
Les auditeurs en éthique de l’IA sont confrontés à des défis considérables. Les plus courants sont les suivants :
- Incertitude et ambiguïté dues à une réglementation préliminaire ou fragmentaire.
- Manque de tests et de mesures standardisés pour évaluer des problèmes tels que les biais algorithmiques.
- Complexité organisationnelle et coordination interdisciplinaire.
- Disponibilité limitée des données, qualité et pénurie de données de référence et d’infrastructure d’IA.
- Capacité sous-développée des clients à s’engager efficacement avec les auditeurs.
L’absence de réglementation mature a créé une certaine réticence des entreprises à consacrer des ressources à l’éthique de l’IA et aux travaux de gouvernance.
Le rôle en évolution des auditeurs en éthique de l’IA
Malgré les défis, les auditeurs en éthique de l’IA jouent un rôle essentiel dans l’interprétation des réglementations, la création de cadres d’audit, l’organisation des pratiques et le partage de leurs connaissances avec les parties prenantes. De nombreux auditeurs créent leurs propres cadres, progiciels et modèles de rapports pour opérationnaliser l’éthique et la gouvernance de l’IA.
Un point essentiel à retenir est que l’audit d’éthique de l’IA évolue selon des lignes étroitement liées à l’audit d’éthique financière et d’éthique des affaires, bien qu’il présente également des caractéristiques et des défis nouveaux. Cette relation est utile pour suggérer des orientations de développement théorique et pratique et pour mettre en garde contre les pièges potentiels.
Comment les praticiens évaluent-ils l’efficacité et les défis des initiatives d’audit de l’éthique de l’IA ?
L’audit de l’éthique de l’IA est un domaine en évolution rapide, essentiel pour garantir un déploiement responsable de l’IA. Les praticiens développent des cadres et naviguent dans les incertitudes réglementaires. Ce rapport examine en profondeur la manière dont ils évaluent l’efficacité et les défis auxquels ils sont confrontés.
Évaluation de l’efficacité : indicateurs quantitatifs et au-delà
Les mesures de succès pour les audits de l’éthique de l’IA varient considérablement, englobant à la fois des aspects quantitatifs et qualitatifs :
- Indicateurs quantitatifs : Certains auditeurs suivent les améliorations des indicateurs clés de performance (KPI), tels que la réduction des disparités et l’amélioration de la précision du modèle. Les indicateurs de profit peuvent également être pris en compte, en s’alignant sur les objectifs commerciaux.
- Évaluations qualitatives : Beaucoup concèdent que des mesures véritablement robustes du « succès » sont encore rares. D’autres références sont utilisées pour déterminer l’efficacité, telles que l’achèvement d’un rapport d’audit, la réalisation des livrables initiaux et l’amélioration de la sensibilisation organisationnelle générale et de la capacité des parties prenantes.
Cependant, un consensus sur les mesures standardisées fait défaut, ce qui souligne l’immaturité du domaine.
Engagement des parties prenantes : combler le fossé
Alors que les auditeurs s’engagent avec les équipes techniques (data scientists, ingénieurs ML), les cadres et les professionnels de la gestion des risques/conformité, l’engagement avec les parties prenantes plus larges – le public, les groupes vulnérables et les actionnaires – reste limité. Cela contredit les appels à un engagement public diversifié.
Les raisons potentielles de cet écart incluent les limitations de ressources, le manque de meilleures pratiques claires et les préoccupations concernant le risque de réputation ou le secret commercial.
Défis dans l’écosystème d’audit de l’éthique de l’IA
Les auditeurs de l’éthique de l’IA rencontrent de nombreux obstacles :
- Ambiguïté réglementaire : Le paysage réglementaire immature crée de l’incertitude. Les auditeurs ont du mal à interpréter les réglementations, ce qui a un impact sur leur capacité à fournir des orientations claires.
- Contraintes de ressources : Des budgets limités et un manque de réglementations définies entravent l’investissement dans l’éthique et la gouvernance de l’IA.
- Lacunes en matière de gouvernance des données et des modèles : De nombreuses entreprises manquent d’une gouvernance robuste des données et des modèles, ce qui rend difficile l’accès aux données, la compréhension de la manière dont elles ont été collectées et le traçage des décisions du modèle.
- Complexité organisationnelle : La coordination entre des équipes diverses avec des priorités concurrentes pose un défi important. Les équipes cloisonnées entravent la communication et l’adhésion.
- Préoccupations relatives à l’indépendance : L’ambiguïté entre les activités d’audit et de conseil soulève des préoccupations quant à l’indépendance professionnelle. Les régulateurs manquent également d’harmonisation autour des normes et des meilleures pratiques, et il y a une absence de mesures pour déterminer la qualité de l’audit de l’éthique de l’IA.
Ces défis soulignent la nécessité de changements organisationnels plus larges et d’une plus grande clarté réglementaire.
Évolution vers des modèles d’audit financier
L’audit de l’éthique de l’IA évolue vers des cadres ressemblant à l’audit financier, bien que des lacunes persistent. Actuellement, les audits de l’éthique de l’IA ont tendance à suivre les étapes de l’audit financier que sont la planification, l’exécution et le reporting, mais l’implication des parties prenantes, la mesure du succès et le reporting externe font souvent défaut.
Le rôle de l’auditeur : interprètes et traducteurs
Malgré les défis, les auditeurs de l’éthique de l’IA jouent un rôle essentiel. Ils rendent opérationnelles les réglementations ambiguës, créent des cadres, mettent en place les meilleures pratiques et socialisent ces idées auprès des clients et des régulateurs. Ils agissent comme interprètes et traducteurs au sein de l’écosystème évolutif de la gouvernance de l’IA.
Implications pour l’avenir
Résoudre les défis de l’audit de l’éthique de l’IA nécessite un effort collectif : de meilleures ressources, des réglementations plus claires, une meilleure gouvernance des données et un engagement accru des parties prenantes. Les décideurs politiques sont considérés comme des acteurs clés, avec la capacité de façonner cet écosystème. En particulier, cela nécessite de développer un consensus autour de « recommandations suffisamment faciles à traiter et détaillées et de fournir des orientations qui minimisent les ambiguïtés [qui] sont indispensables. »
french
Audit d’éthique de l’IA : Un paysage en mutation
Le paysage de l’audit d’éthique de l’IA évolue rapidement, sous l’impulsion de réglementations imminentes et d’une sensibilisation croissante aux risques potentiels. Cette section analyse les aspects essentiels de ce domaine émergent, en s’appuyant sur des recherches récentes sur les pratiques d’audit d’éthique de l’IA.
Facteurs clés : Réglementation et réputation
Les entreprises sont principalement motivées par deux facteurs lorsqu’elles s’engagent dans des audits d’éthique de l’IA :
- Conformité réglementaire : La prochaine loi européenne sur l’IA est un catalyseur important, qui pousse les organisations à évaluer et à atténuer de manière proactive les risques associés à leurs systèmes d’IA. Des réglementations et des normes similaires jouent également un rôle, ce qui suggère une tendance à l’harmonisation internationale.
- Préoccupations en matière de réputation : La réaction du public, la confiance des clients et la confiance des employés sont de puissantes incitations aux pratiques éthiques en matière d’IA. Certaines entreprises réalisent également qu’une IA éthique est tout simplement une meilleure IA qui conduit à une performance améliorée.
Portée de l’audit : Gouvernance vs. Algorithmique
Les organisations adoptent deux approches principales lors de la définition de la portée des audits d’éthique de l’IA :
- Audits de gouvernance : Se concentrent sur une évaluation générale des systèmes d’IA, de leurs processus de développement et des structures organisationnelles.
- Audits algorithmiques : Se concentrent sur les données, les performances et les résultats d’algorithmes d’IA spécifiques, sans nécessairement examiner les processus organisationnels plus larges.
- Les fournisseurs de SaaS proposent des outils techniques spécialisés pour évaluer les principes d’éthique de l’IA, en particulier les biais, la confidentialité et l’explicabilité.
La portée est souvent très contextuelle et négociée entre les auditeurs et les clients. De plus, les audits peuvent prendre des semaines, voire des mois, en fonction de la disponibilité des données et des preuves.
Le processus d’audit : Planification, exécution et rapport
Les audits d’éthique de l’IA reflètent largement le cadre traditionnel d’audit financier, comprenant trois étapes :
- Planification : Définition de la portée, évaluation des risques.
- Exécution : Collecte d’artefacts, tests, validation du modèle.
- Rapport : Réflexion, étape post-audit, documentation.
L’engagement des parties prenantes au cours des phases de planification et de test se concentre généralement sur les data scientists, les experts techniques et les experts métiers connexes.
Les activités principales pendant l’exécution se concentrent généralement sur la gestion des risques et la validation des modèles.
Défis et limitations
Plusieurs défis entravent l’efficacité des audits d’éthique de l’IA :
- Ambiguïté réglementaire : L’absence de réglementations claires et interprétables et de meilleures pratiques approuvées crée une incertitude, entravant des évaluations cohérentes.
- Complexité organisationnelle : Difficulté à naviguer entre les fonctions interdisciplinaires, à coordonner les équipes et à obtenir l’adhésion de diverses parties prenantes.
- Infrastructure de données : Une disponibilité, une qualité et une gouvernance des données insuffisantes créent des obstacles à une validation approfondie des modèles.
- Mesurer le succès : Souvent, il n’existe pas de mesures robustes pour définir ce que signifie le « succès » dans le contexte des audits d’IA.
- Manque de rapports externes : L’absence de rapports externes et d’un engagement plus large des parties prenantes signifie que les audits ne satisfont pas facilement les objectifs de transparence publique et fonctionnent principalement comme des artefacts de conseil.
Malgré ces défis, les auditeurs d’IA jouent un rôle clé dans la traduction de principes abstraits en cadres d’action, en progiciels et en modèles de rapports ; en stimulant le changement dans les pratiques organisationnelles ; en rendant opérationnelles des réglementations ambiguës ; et en améliorant les normes de l’IA.