Contextualiser les conclusions concernant l’utilisation de l’IA dans les scénarios de prêt et d’embauche
Les conclusions de cette étude concernant l’impact de l’IA sur la discrimination dans les prêts et l’embauche doivent être comprises dans le contexte plus large du paysage politique. L’AI Act de l’UE, par exemple, impose une utilisation responsable de l’IA par le biais de la supervision humaine et met l’accent sur la non-discrimination. L’article 10 oblige les fournisseurs de systèmes d’IA à mettre en œuvre une gouvernance robuste des données, en examinant les ensembles de données pour détecter les biais et en adoptant des mesures d’atténuation. Cette pertinence politique éclaire l’exploration par notre étude de la surveillance humaine dans la prise de décision de l’IA, soulignant la nécessité d’une surveillance continue, d’un examen post-déploiement et de la capacité de passer outre les décisions de l’IA. L’examen par l’étude des effets de l’IA, en particulier en ce qui concerne les biais et la discrimination, est un apport essentiel aux objectifs d’identification et d’atténuation des biais de l’AI Act.
De plus, la recherche présentée ici révèle que les systèmes de décision assistés par l’IA combinés à la surveillance humaine peuvent à la fois perpétuer et atténuer les biais – une nuance avec un contexte significatif dans les considérations éthiques plus larges du déploiement de l’IA à haut risque. Les politiques actuelles reposent souvent sur l’hypothèse que la surveillance humaine corrigera les lacunes de l’IA, ce que cette étude remet en question en démontrant que les biais humains peuvent perdurer, voire s’amplifier lors de l’interaction avec les recommandations de l’IA, même celles qui sont « équitables ». Dans cette perspective, les interventions réglementaires et les instruments politiques actuels devraient être réévalués de manière critique afin d’intégrer les biais potentiels que la surveillance humaine peut introduire. Les réponses politiques devraient également être proactives, en tenant compte des mécanismes de rétroaction, des outils améliorés de détection des biais au-delà des tests de l’IA, et des cadres de collaboration humain-IA efficaces pour compléter l’apport humain au lieu de simplement le remplacer ou de l’imiter.
Implications pratiques et considérations futures
Les implications concrètes de ces conclusions s’étendent au-delà des mandats politiques pour prendre en compte les considérations de conception éthique de l’IA. Les interventions telles que les examens des normes organisationnelles, les justifications transparentes des dérogations et la surveillance continue des résultats sont essentielles. Les décideurs doivent avoir accès à des informations sur leurs performances et leurs biais, ainsi qu’aux outils nécessaires pour expliquer leurs dérogations, ce qui favorise un écosystème proactif de contrôles mutuels. Cette stratégie holistique vise à optimiser la collaboration IA-humain afin que les décisions répondent systématiquement aux objectifs organisationnels et aux considérations éthiques, y compris des protections robustes contre les pratiques discriminatoires. En encadrant la surveillance dans des scénarios réalistes et en favorisant une perspective systémique, les futurs bacs à sable réglementaires pour l’IA peuvent explorer la gouvernance des données, établir les meilleures pratiques et promouvoir la confiance du public dans les systèmes utilisés pour les prêts et l’embauche.
Quelles sont les principales questions de recherche ?
Cette recherche vise à comprendre l’équilibre complexe entre la confiance et le contrôle dans la supervision humaine de la prise de décision par l’IA. À mesure que les systèmes d’IA se généralisent, en particulier dans des domaines à enjeux élevés comme les prêts et l’embauche, il est crucial de déterminer le niveau approprié de dépendance à l’égard de ces systèmes. Les questions clés tournent autour de l’identification des scénarios de « surconfiance », où les utilisateurs acceptent sans réserve les recommandations de l’IA, même lorsqu’elles sont erronées, et de « sous-confiance », où les utilisateurs rejettent les conseils valables de l’IA au profit de leur propre jugement. L’objectif général est de déterminer comment ces comportements de dépendance influent sur l’équité de la prise de décision assistée par l’IA et de tirer des enseignements pour la conception de mécanismes de supervision efficaces.
Une question de recherche centrale est de savoir si la fourniture d’une IA théoriquement impartiale se traduit par des décisions moins biaisées de la part des utilisateurs. Cela explore si les utilisateurs font confiance aux IA équitables et les utilisent de manière appropriée. Inversement, l’étude se demande si les utilisateurs conservent leur capacité et leur volonté de comprendre et de remettre en question l’IA, même lorsqu’elle est théoriquement impartiale. Cela examine le potentiel d’ « aversion envers les algorithmes », où les utilisateurs rejettent les décisions algorithmiques au profit de leurs propres perspectives, potentiellement biaisées. La recherche vise à déterminer si le remplacement biaisé lors de la supervision ex-post pourrait annuler les avantages des efforts ex-ante visant à assurer l’équité de l’IA, et inversement, si la supervision ex-post peut atténuer l’impact des échecs de la supervision ex-ante.
En fin de compte, l’étude cherche à déterminer comment les préférences des utilisateurs influencent leurs décisions de suivre ou de rejeter les conseils de l’IA, et si les recommandations de l’IA peuvent amplifier l’impact des tendances discriminatoires. En substance, elle se demande si le soutien de l’IA peut exacerber ou perpétuer la discrimination, même lorsque l’IA elle-même est conçue pour être équitable. En explorant ces questions, la recherche vise à fournir des informations pour la conception de systèmes de supervision humaine qui minimisent les résultats discriminatoires et maximisent les avantages de la complémentarité homme-IA dans les contextes de prise de décision sensibles.
Quelle est la méthodologie employée dans cette recherche ?
Cette recherche adopte une approche mixte, employant un modèle explicatif séquentiel. Ce modèle implique une phase initiale de collecte et d’analyse de données quantitatives, suivie d’une phase ultérieure de collecte et d’analyse de données qualitatives, la phase qualitative servant à expliquer et à développer les résultats quantitatifs. La partie quantitative consiste en une expérience comportementale menée en ligne, simulant les relations employeur-employé et prêteur-emprunteur avec des professionnels des ressources humaines et des banques en Italie et en Allemagne (N=1411). Les participants ont pris des décisions concernant des candidats hypothétiques, avec des incitations liées à la performance des candidats qu’ils avaient choisis, imitant ainsi les évaluations professionnelles réelles.
Après l’expérience quantitative, une phase qualitative a été entreprise, comprenant des entretiens semi-structurés et des ateliers en ligne en petits groupes avec un sous-ensemble de participants à l’étude et un atelier de co-conception avec des experts et des décideurs politiques. Les entretiens visaient à explorer les expériences des participants avec l’IA dans leurs contextes professionnels, leurs processus de prise de décision et leurs perceptions de l’équité et des biais. Les ateliers ont servi à explorer davantage la validité écologique de l’étude, en recueillant des commentaires sur la façon dont les caractéristiques des candidats sélectionnés et la configuration expérimentale étaient liées à des situations réelles, et à générer de nouvelles idées sur la façon d’atténuer les biais humains et algorithmiques. Cette triangulation des données quantitatives et qualitatives permet de comprendre de manière globale et nuancée l’impact du contrôle humain dans la prise de décision assistée par l’IA.
Afin d’enrichir l’analyse et de tirer des enseignements exploitables, des méthodes de conception participative ont été intégrées. Un atelier de co-conception a réuni des experts de diverses disciplines pour réfléchir à la manière d’atténuer les biais humains et algorithmiques dans la prise de décision assistée par l’IA. Les experts ont discuté de sujets tels que la définition de l’équité algorithmique et humaine, la traduction de l’équité en règles pratiques, les exigences réglementaires en matière de contrôle et la sensibilisation des utilisateurs et des développeurs. Cet engagement diversifié a permis de formuler des recommandations politiques fondées et des priorités de recherche axées sur l’avenir découlant de cette étude à grande échelle sur la manière appropriée de mettre en œuvre des systèmes de surveillance humaine pour éviter les résultats discriminatoires. Enfin, des décideurs politiques ont été invités à réfléchir sur les résultats et à discuter des mises en œuvre politiques.
Quelles sont les principales conclusions de l’expérience quantitative ?
L’expérience quantitative, une étude comportementale à grande échelle impliquant des professionnels des RH et du secteur bancaire en Italie et en Allemagne (N=1411), a permis de dégager plusieurs conclusions notables concernant l’impact de la supervision humaine sur la discrimination dans les systèmes d’aide à la décision basés sur l’IA. Un résultat central a été que les superviseurs humains étaient aussi susceptibles d’approuver les recommandations discriminatoires d’une IA générique que de suivre les suggestions d’une IA spécifiquement programmée pour l’équité. Cela illustre clairement que la supervision humaine, dans sa mise en œuvre actuelle, ne prévient pas intrinsèquement la discrimination lorsqu’une IA générique potentiellement biaisée est utilisée dans le cadre du processus décisionnel. De plus, l’étude a révélé que lorsqu’une IA « équitable » était employée, les choix faits par les participants présentaient moins de biais de genre. Cependant, cela n’a pas complètement éliminé la discrimination, car les choix sont restés influencés par les préjugés individuels des participants eux-mêmes, démontrant la persistance des biais humains malgré la présence d’un support algorithmique apparemment impartial.
Plus précisément, l’IA générique, optimisée pour la précision et présentant des tendances à favoriser les hommes et les candidats allemands, a été observée comme exerçant une influence, conduisant à des choix discriminatoires à l’encontre des femmes et des candidats italiens. Inversement, l’IA « équitable », conçue pour minimiser les biais, a semblé atténuer la discrimination à l’encontre des hommes, mais n’a pas complètement annulé les attitudes préjudiciables existantes. Cela suggère que si une IA équitable peut orienter les décisions vers des résultats moins discriminatoires, elle ne peut pas complètement éradiquer les préjugés humains profondément ancrés. Notamment, l’expérience a également apaisé certaines inquiétudes, démontrant que la simple présence de l’IA, même lorsqu’elle est programmée pour l’équité, n’augmentait pas nécessairement l’impact des tendances discriminatoires. L’étude a révélé que les préférences individuelles n’avaient pas plus d’influence sur les choix lorsqu’il y avait un support d’IA.
Conclusions supplémentaires
Au-delà des aspects principaux du biais, l’expérience a également évalué la performance des décideurs avec et sans support d’IA. Étonnamment, l’accès aux recommandations de l’IA, qu’elles proviennent d’une IA équitable ou générique, n’a pas amélioré de manière démontrable la qualité des décisions humaines en termes d’objectifs visés. Cependant, l’expérience a montré que suivre les recommandations de l’IA aurait permis au décideur de gagner plus de points par rapport aux décisions basées entièrement sur l’intuition humaine sans aide.
Quels sont les principaux thèmes qui se dégagent des études qualitatives post-expérimentales ?
Les études qualitatives post-expérimentales, comprenant des entretiens individuels et des ateliers collaboratifs avec les participants à l’étude et des experts en éthique de l’IA, ont exploré plusieurs thèmes clés concernant la supervision humaine dans la prise de décision assistée par l’IA. Un thème important était l’influence souvent non reconnue des normes organisationnelles et des intérêts organisationnels perçus sur la prise de décision. Les participants ont fréquemment exprimé leur priorité aux stratégies et objectifs de l’entreprise, même lorsque ces priorités étaient en conflit avec des considérations d’équité individuelle ou les recommandations d’une IA « équitable ». Cela suggère la nécessité d’interventions ciblant la culture organisationnelle et fournissant des orientations plus claires sur quand et comment outrepasser les recommandations de l’IA en faveur de principes éthiques. Les données qualitatives ont également mis en lumière une tension entre les aspirations des participants à l’efficacité axée sur l’IA et leurs hésitations pratiques à abandonner les évaluations de qualités « douces » aux algorithmes, en particulier en ce qui concerne les attributs nuancés identifiés lors des entretiens.
Lié à l’influence organisationnelle, le thème récurrent des *facteurs contextuels* que les participants ont identifiés comme jouant un rôle substantiel dans leur interaction avec l’IA et leur confiance dans les recommandations de l’IA. Cela a souligné les limites de la vision simplifiée et décontextualisée des candidats dans le scénario expérimental. Les participants ont souligné leur besoin d’une compréhension globale des circonstances et des motivations d’un candidat, des qualités qu’ils pensaient que l’IA ne pouvait pas saisir adéquatement. Le désir d’*explicabilité et de justification* est également apparu comme une caractéristique déterminante d’une supervision humaine efficace. Les participants avaient besoin de comprendre le raisonnement qui sous-tend les recommandations de l’IA, non seulement pour renforcer leur propre jugement et leur expertise, mais aussi pour assurer la transparence et la responsabilité envers les candidats. Certains participants ont même exprimé une réticence à adopter certains systèmes d’IA parce que la manière dont les décisions étaient prises n’était pas transparente. Les résultats combinés de l’étude suggèrent l’importance d’une approche centrée sur l’humain dans la mise en œuvre de l’IA, où la technologie sert d’outil pour faciliter l’interprétation et l’évaluation humaines plutôt que de simplement automatiser la prise de décision.
Enfin, un thème récurrent était le rôle essentiel du retour d’information sur les résultats et de la surveillance continue dans l’affinage des systèmes d’IA et des processus de prise de décision humains. Les participants à l’étude ont exprimé le besoin de mécanismes de rétroaction qui leur permettraient d’évaluer l’exactitude et l’équité des décisions assistées par l’IA au fil du temps. Un désir récurrent, tant pour le professionnel sur le terrain que pour les experts en équité en IA qui ont été consultés, était l’accessibilité d’un « système de test et d’audit » qui soit accessible à toutes les parties et où de nouveaux apprentissages sur les systèmes et le processus de prise de décision puissent être obtenus. Ces systèmes qui « fournissent un compte rendu clair » de ce qui est vu et de la manière dont, permettront à chacun de s’engager d’une manière plus équitable en créant cet « engagement communautaire » qui aiderait en outre à créer des processus pour améliorer le résultat à long terme du système utilisé. Cet accent mis sur l’apprentissage continu met en évidence la nécessité de systèmes de supervision de l’IA capables de s’adapter à l’évolution des contextes sociaux et de faciliter l’affinage collaboratif en intégrant les jugements humains. Les experts ont proposé des interventions au niveau de la formation et du fonctionnement du développement de l’IA, afin de prendre en compte des données plus nuancées et contextuelles plutôt que des ensembles de données plus génériques et potentiellement biaisés ou discriminatoires.
french
Comment les résultats des entretiens individuels éclairent-ils les questions de recherche ?
Les entretiens individuels ont fourni des informations précieuses sur les priorités et les biais que les professionnels prennent en compte lors de la prise de décisions, tant en ce qui concerne l’équité que les considérations pragmatiques. Un enseignement clé a été la réalisation que les participants contextualisaient souvent leurs décisions en fonction de leur expérience personnelle et des objectifs stratégiques de leurs entreprises. Certains ont admis accepter des recommandations discriminatoires de systèmes d’IA si elles étaient alignées sur les objectifs organisationnels, soulignant ainsi une tension entre les principes éthiques et les exigences pratiques. De plus, les participants ont exprimé une préférence pour l’aide à la décision par l’IA lorsque les tâches étaient moins complexes, comme le traitement des données, et ont exprimé une hésitation lorsqu’il s’agissait de juger des caractéristiques humaines nuancées. Le besoin d’explicabilité et de transparence a été souligné, les participants demandant des éclaircissements sur le raisonnement de l’IA pour se sentir rassurés quant à l’équité.
Les entretiens ont mis en lumière les facteurs qui motivent la volonté des professionnels d’utiliser le soutien de l’IA, répondant ainsi à une question de recherche essentielle. L’ouverture des participants aux décisions assistées par l’IA dépendait de plusieurs facteurs, notamment la complexité perçue de la tâche, les risques potentiels liés à l’utilisation de l’IA et leur capacité à justifier et à expliquer les recommandations de l’IA. Les entretiens ont également révélé des points de vue nuancés sur l’utilité de l’IA, certains participants la considérant comme des outils de travail et d’efficacité indispensables. Inversement, il a été expliqué que de nombreux outils d’IA sont trop immatures pour certaines responsabilités, et ce point de vue a été souligné lors de l’explication de la capacité des outils d’IA à évaluer les qualités humaines et à relier l’importance de diverses qualités lors de la prise de décisions éclairées.
En fin de compte, les conclusions des entretiens individuels suggèrent fortement la nécessité d’évaluer et de corriger les biais qui ne sont pas uniquement contenus dans le seul système d’IA. L’accent devrait également être mis sur les processus et les biais externes qui existent chez les autres membres du processus décisionnel, y compris les aspects sociétaux, humains ou institutionnels. Cela a influencé le type de données à collecter lors des groupes de discussion et les sujets nécessitant une évaluation plus approfondie par des équipes externes travaillant sur le développement d’une IA éthique et équitable, comme l’atelier interdisciplinaire sur la justice en matière d’IA. Les informations tirées des entretiens individuels ont permis aux chercheurs de détourner leur attention de la boîte noire de l’IA et de comprendre qu’une meilleure compréhension et une meilleure réflexion humaines influenceraient un soutien à la décision éthique et équitable.
Quelles conclusions ont été tirées des ateliers avec des professionnels ?
La recherche qualitative menée lors d’ateliers avec des professionnels ayant participé à l’expérience d’interaction homme-IA a révélé des informations clés sur les complexités de l’équité algorithmique et de la supervision humaine. Les participants ont souligné l’importance cruciale de contextualiser l’utilisation de l’IA dans leurs scénarios professionnels spécifiques. Ils ont en outre insisté sur la nécessité d’une IA explicable, souhaitant une transparence quant à la logique des algorithmes et à la manière dont les décisions sont prises. Cette explication, selon eux, favoriserait une plus grande confiance dans le système d’IA et permettrait une prise de décision mieux éclairée. Cependant, les participants ont noté une tension entre les recommandations algorithmiques et leur propre jugement professionnel, valorisant souvent leur capacité à évaluer les attributs nuancés et spécifiques à la situation que l’IA peut avoir du mal à saisir.
Une autre conclusion importante tirée des ateliers a été la notion d’équité au-delà de la simple non-discrimination. Les experts ont souligné que, si la réalisation de l’équité dans l’IA exige une approche multidisciplinaire, impliquant à la fois des considérations sociales et techniques, l’équité est à la fois un processus systémique et dynamique, et est plus contextuelle. La construction d’une équité collaborative, selon les participants, nécessite de prendre conscience du moment où le système échoue et du moment où les humains échouent pour le système. En outre, les participants ont souligné l’importance de reconnaître et de traiter leurs propres préjugés implicites, ainsi que le potentiel des préjugés organisationnels à influencer les processus de prise de décision. Les participants ont exprimé le besoin de directives claires sur le moment où il convient de passer outre les recommandations de l’IA et de mécanismes permettant d’examiner et de contrôler les décisions de remplacement, ce qui permet d’atténuer les préjugés involontaires et de promouvoir des résultats plus équitables, car ils sont guidés pour aligner leurs choix sur les valeurs organisationnelles et les objectifs à long terme. Les ateliers ont confirmé la valeur accordée aux décisions individuelles lorsque le contexte est plus détaillé, tout en reconnaissant qu’une dépendance pourrait se produire si les résultats sont validés ou si les organisations ont des limites.
Quelles perspectives et conclusions ont été établies par l’atelier d’experts ?
L’atelier d’experts a réuni un groupe multidisciplinaire pour aborder les biais dans la prise de décision humaine assistée par l’IA, en se concentrant sur des scénarios tels que l’embauche et les prêts. De manière cruciale, l’atelier a identifié la définition de l’équité comme un processus dynamique nécessitant une pratique et un exercice continus, plutôt que comme un concept statique. Cette perspective a souligné la nécessité d’intégrer l’équité tout au long du cycle de développement du système d’IA, depuis la collecte initiale des données jusqu’à la mise en œuvre continue. Les experts ont souligné la nécessité de considérer l’équité de manière dynamique et itérative par rapport aux résultats concrets, y compris après l’intervention d’une personne en supervision humaine (« in the loop »). Les discussions ont remis en question l’efficacité de la simple exclusion des caractéristiques protégées des ensembles de données pour garantir l’équité, les experts notant que cela ne la garantira pas en soi. En effet, l’isolement des caractéristiques pour l’analyse pourrait également conduire à des interprétations erronées ou à la perte complète du contexte.
L’atelier a également exploré l’opérationnalisation de l’équité dans la collaboration homme-IA, soulignant la transparence mutuelle comme un principe central. Les experts ont proposé des mécanismes de contrôle normalisé et des boucles de rétroaction pour promouvoir la surveillance éthique et réglementaire. Les experts ont envisagé un avenir où l’IA pourrait être intégrée dans des boucles d’apprentissage dynamiques, voire contribuer positivement à un modèle hybride homme-IA sur le lieu de travail ou dans l’environnement des prêts. Le processus pourrait impliquer une équipe qui effectue et itère des tests. Par exemple, l’IA pourrait faire partie d’une équipe qui examine les aspects techniques et sociétaux du projet et peut identifier les problèmes. Les experts ont également plaidé pour la fourniture d’une analyse et d’une transparence significatives aux candidats qui passent devant un humain en supervision, ainsi que pour le processus qui sous-tend les décisions de supervision humaine. Plus précisément, un thème clé qui a été soulevé de manière constante est l’importance de favoriser « la culture éthique de l’IA » tant chez les concepteurs que chez les utilisateurs afin de garantir un développement responsable du système d’IA.
Les experts ont souligné l’importance de l’implication de la communauté et de la responsabilité partagée dans la gouvernance de l’IA, en plaidant pour des formes collectives de supervision humaine. Les discussions ont mis l’accent sur la nécessité de donner la priorité aux besoins de la communauté par rapport aux capacités purement techniques, en créant de nouveaux imaginaires pour mieux soutenir et relier plus étroitement les besoins de la technologie et de la communauté. Du point de vue des politiques, les experts ont exhorté l’UE à donner la priorité aux valeurs et à l’éthique dans le développement de l’IA et à investir dans le renforcement de la confiance dans la technologie, contribuant ainsi à garantir que l’IA s’aligne sur les objectifs stratégiques généraux. Les participants à l’atelier ont également noté que la rétroaction des décisions au niveau de l’utilisateur final et des décisions et suggestions menées par l’IA dans un écosystème plus vaste peut également aider les chercheurs et les développeurs à acquérir une compréhension systémique des questions complexes.
Quels sont les principaux points de discussion et recommandations politiques découlant de l’intégration des résultats de la recherche ?
L’intégration des résultats des expériences quantitatives et des entretiens qualitatifs, combinée aux ateliers d’experts et de décideurs politiques, met en évidence plusieurs points de discussion cruciaux et éclaire des recommandations politiques spécifiques concernant la supervision humaine de la prise de décision assistée par l’IA. Un thème central essentiel est la nécessité de dépasser une vision simpliste de la supervision humaine en tant que mécanisme correctif automatique des biais de l’IA. La recherche souligne que les biais humains et les normes organisationnelles peuvent influencer de manière significative, voire exacerber, les résultats discriminatoires au sein des systèmes assistés par l’IA. Les points de discussion sont axés sur la complexité de l’équilibre entre l’efficacité algorithmique et les considérations éthiques, en particulier en ce qui concerne l’équité et la transparence dans les processus de prise de décision souvent opaques. L’étude révèle également l’importance du contexte et les limites d’une approche unique de la supervision de l’IA, soulignant la nécessité d’intégrer diverses perspectives et de s’attaquer aux problèmes systémiques potentiels parallèlement aux aspects techniques.
Sur la base de ces points de discussion, plusieurs recommandations politiques émergent pour améliorer l’efficacité de la supervision humaine. Il est nécessaire non seulement d’atténuer les biais de l’IA, mais aussi de mettre en œuvre des mécanismes robustes pour surveiller et examiner les décisions humaines qui annulent les recommandations de l’IA. Cela nécessiterait un investissement dans des outils de détection des biais et des programmes de formation pour accroître la sensibilisation et la connaissance des biais décisionnels humains. La transparence doit être un élément clé, permettant aux parties prenantes d’obtenir des informations sur la façon dont les décisions finales sont prises. En outre, les cadres de gouvernance de l’IA devraient envisager d’inclure des boucles de rétroaction continues permettant aux décideurs d’ajuster les algorithmes d’IA en fonction des performances réelles tout en respectant les directives éthiques. Ces recommandations visent collectivement à créer un système de supervision de l’IA plus holistique, contextualisé et adaptatif qui promeut l’équité.
Données exploitables pour la réglementation
Pour rendre les politiques plus efficaces, il est important d’examiner de quelle manière les préjugés humains et la culture organisationnelle pourraient affecter l’équité des systèmes d’IA. Les décideurs politiques devraient envisager des réglementations et des lignes directrices qui incitent les organisations à vérifier leur culture et leurs normes et à prendre des mesures qui garantissent que les systèmes d’IA et leurs superviseurs humains ne renforcent pas les inégalités existantes. En outre, les politiques devraient encourager les développeurs d’IA à fournir des outils qui permettent la transparence et justifient les explications de la prise de décision de l’IA aux personnes concernées et à fournir un contexte concernant les données et la prise de décision du système d’IA. Il devrait être possible de créer des politiques qui encouragent l’innovation tout en mettant en place des protections pour garantir que les systèmes d’IA soutiennent l’équité et protègent les droits individuels.