Explicabilité de l’IA : un guide pratique pour instaurer la confiance et la compréhension

A compass
À mesure que les systèmes d’IA exercent une influence croissante sur nos vies, une exigence essentielle a émergé : la capacité de comprendre comment ces systèmes arrivent à leurs conclusions. Les professionnels du droit, les responsables de la conformité et les analystes politiques sont désormais confrontés à des questions complexes concernant le fonctionnement interne de l’IA et les facteurs qui motivent ses jugements. L’exploration du paysage de l’explicabilité de l’IA fournit des informations essentielles pour construire des technologies fiables et éthiquement justes, garantissant que les algorithmes servent au mieux les intérêts de l’humanité.

Voici les questions de haut niveau, séparées par ‘

En tant que journaliste spécialisé dans la gouvernance de l’IA, j’ai examiné la documentation sur l’explicabilité de l’IA et identifié les questions que les professionnels de la legaltech, les responsables de la conformité et les analystes politiques devraient se poser.

Comprendre l’explicabilité et la transparence de l’IA

Quelle est la différence entre l’explicabilité et la transparence de l’IA, et pourquoi devrions-nous nous concentrer sur l’explicabilité en pratique ?

  • Explicabilité : Degré auquel les gens peuvent comprendre la logique et les processus d’un système d’IA pour garantir la durabilité, la sécurité, l’équité et la responsabilité.
  • Transparence : Bien qu’elle soit liée, elle peut désigner à la fois l’interprétabilité d’un système d’IA (« ouvrir la boîte noire ») *et* la démonstration que les processus de conception et de développement de l’IA sont durables, sûrs, équitables et pilotés par des données gérées de manière responsable.
  • Information exploitable : Bien que la transparence soit essentielle, l’explicabilité offre des conseils pratiques sur la manière de rendre la transparence opérationnelle, ce qui la rend directement pertinente pour les efforts de gouvernance.

Alignement réglementaire

Qu’est-ce que la UK’s Algorithmic Transparency Recording Standard (ATRS) (Norme d’enregistrement de la transparence algorithmique du Royaume-Uni) et comment peut-elle aider à respecter les réglementations ?

  • L’ATRS aide les organismes du secteur public à publier des informations sur les outils algorithmiques utilisés dans les processus décisionnels affectant le public.

Considérations éthiques

Existe-t-il des compromis entre la sécurité et l’explicabilité, et comment les équilibrer, en particulier lorsque nous travaillons avec des données numériques d’enfants ?

  • Sécurité vs. Explicabilité : Les contextes à enjeux élevés peuvent inciter à masquer le fonctionnement de l’IA pour empêcher son exploitation, ce qui peut soulever des problèmes de biais, d’équité et de responsabilité. L’équilibre de ces aspects est essentiel pour construire des systèmes d’IA responsables.
  • IA centrée sur l’enfant : Lorsque l’explicabilité concerne les enfants, il est essentiel de tenir compte de leurs besoins et capacités spécifiques, comme la formation des exécutants, la collaboration avec les enfants tout au long du cycle de vie du projet et le respect du code de conception adapté à l’âge de l’ICO britannique.

Explications basées sur le processus et sur les résultats

Quelles sont les explications basées sur le processus et celles basées sur les résultats, et comment devrions-nous aborder chacune d’elles ?

  • Les explications basées sur les résultats comprennent le « quoi » et le « pourquoi » derrière les résultats du modèle. Elles doivent être accessibles et faciles à comprendre. Elles comprennent également l’explication aux parties prenantes concernées de la façon et de la raison pour lesquelles le jugement humain assisté par l’IA a été rendu.
  • Les explications basées sur le processus démontrent que la bonne gouvernance et les meilleures pratiques ont été suivies tout au long de la conception et de l’utilisation d’un système d’IA. Elles doivent démontrer que les considérations de durabilité, de sécurité, d’équité et de gestion responsable des données ont été opérationnelles tout au long du cycle de vie du projet.

Maximes pour une IA éthique

Quelles sont les maximes clés qui devraient guider notre approche de l’explicabilité de l’IA ?

  • Soyez transparent : Rendez l’utilisation de l’IA évidente et expliquez les décisions de manière significative aux individus, conformément à l’article 5(1) du RGPD britannique.
  • Être responsable : Assurer la surveillance, être redevable aux organismes internes et externes et assumer la responsabilité de la conformité.
  • Tenir compte du contexte : Il n’existe pas d’approche unique, cela s’applique aux choix de modèles et d’explications, à la structure de gouvernance et aux parties prenantes.
  • Réfléchir aux impacts : Comprendre les dommages potentiels ou les atteintes au bien-être résultant des décisions algorithmiques.

Construire des systèmes d’IA explicables

Quelles sont les considérations de haut niveau qui devraient guider le développement de systèmes d’IA correctement explicables ?

  • Contexte, impact potentiel et besoins spécifiques au domaine : Comprendre le type d’application, les attentes spécifiques au domaine et les technologies existantes.
  • S’appuyer sur des techniques interprétables standard : Faire correspondre les techniques aux risques du domaine, aux ressources de données et à la pertinence de la tâche.
  • Considérations relatives à l’utilisation des systèmes d’IA de type « boîte noire » : Évaluer soigneusement les impacts potentiels, envisager des outils d’interprétabilité supplémentaires et formuler un plan d’action pour optimiser l’explicabilité.
  • Interprétabilité et compréhension humaine : Tenir compte des capacités et des limites de la cognition humaine, en mettant l’accent sur la simplicité et l’accessibilité.

Types d’explication

Quels sont les différents types d’explications qu’une organisation doit fournir pour que les décisions soient SSAFE – D (Durables, Sûres, Responsables, Équitables, Explicables et aient une bonne gestion des données) ?

  • Justification : Clarification du « Pourquoi »
    • Considérations pour l’IA centrée sur l’enfant : L’explication du choix du modèle, du fonctionnement interne et des résultats statistiques doit être fournie d’une manière adaptée à l’âge.
  • Responsabilité : Fournir des détails sur « Qui » est responsable à chaque étape de la conception et du déploiement du modèle d’IA.
    • Considérations pour l’IA centrée sur l’enfant : Si l’enfant interagit avec un système d’IA (par exemple, un jouet, un chatbot, un système en ligne), il doit avoir le « droit à une explication à un niveau adapté à son âge et de manière inclusive ».
  • Données : Souligner « Quels » types de données sont détenus sur lui, les autres sources de données utilisées dans une décision d’IA particulière et les données permettant d’entraîner et de tester le modèle d’IA.
    • Considérations pour l’IA centrée sur l’enfant : L’agence de l’enfance doit être promue et maintenue au premier plan, y compris un rapport transparent.
  • Équité : Expliquer les mesures prises pour garantir des décisions d’IA impartiales et équitables,
    • Considérations pour l’IA centrée sur l’enfant : Être explicite sur la ou les définitions formelles de l’équité tout en fournissant un soutien actif aux enfants marginalisés qui peuvent en bénéficier et/ou ne pas être désavantagés.
  • Sécurité : Fournir les étapes, les mesures et le raisonnement qui permettent d’assurer la maximisation de la robustesse, de la performance, de la fiabilité et de la sécurité des décisions assistées par l’IA.
    • Considérations pour l’IA centrée sur l’enfant : Disposer d’un mécanisme de suivi et d’évaluation continus de la sécurité tout au long du cycle de vie du modèle d’IA. Centré sur l’enfant
  • Impact : Se concentrer sur la façon dont le système peut affecter les personnes ou la société au sens large – et s’il peut être utile.
    • Considérations pour l’IA centrée sur l’enfant : Il est essentiel de tenir compte des impacts possibles qui pourraient affecter la sécurité, la santé mentale/le bien-être et les perspectives d’avenir.

Gestion de l’assurance de l’explicabilité

Comment pouvons-nous mettre en œuvre concrètement toutes ces informations dans des systèmes d’IA explicables ?

  • Il existe des tâches définies pour vous aider à déployer, à concevoir, à fournir des éclaircissements sur les résultats. Ces tâches aident également à fournir et à concevoir correctement des systèmes d’IA transparents et explicables qui incluent (Conception, Développement / Acquisition et Mise en œuvre).

Principales tâches pour la gestion de l’assurance de l’explicabilité pour l’IA

De quelle manière mon entreprise peut-elle s’assurer de la bonne élaboration de modèles d’IA qui peuvent être expliqués de manière adéquate ?

  • Tâche 1 Sélectionner les explications prioritaires (le domaine et l’impact sur les personnes seront essentiels à la définition des priorités).
    • Considérations pour l’IA centrée sur l’enfant : Lorsqu’un système d’IA inclura des enfants, des données d’enfants ou des données personnelles de ceux-ci, des soins supplémentaires seront obligatoires. La planification du projet doit faire preuve d’une transparence accrue pour expliquer la participation des enfants.
  • Tâche 2 : S’assurer que les données sont prétraitées et collectées (de manière à pouvoir expliquer les raisons).
    • Considérations pour l’IA centrée sur l’enfant : S’assurer que toutes les directives réglementaires relatives à la manipulation, à l’utilisation, au consentement, etc. sont conformes à la (Politique de l’UNICEF) / ICO et les maintenir.
  • Tâche 3 : Construire un système capable d’extraire les informations pertinentes nécessaires.
    • Considérations pour l’IA centrée sur l’enfant : Que le modèle que vous souhaitez utiliser soit justifié – ou s’il existe une méthode possible pour garantir qu’un modèle éthique puisse toujours fournir des résultats pour un résultat sans problèmes de sécurité supplémentaires.
  • Tâche 4 : S’assurer que tout le raisonnement extrait est traduit en résultats ou en un résumé à utiliser.
    • Considérations pour l’IA centrée sur l’enfant : L’explication de la décision doit être expliquée en termes simplistes afin de maintenir une bonne compréhension.
  • Tâche 5 : Préparer les exécutants avant de déployer un système.
    • Considérations pour l’IA centrée sur l’enfant : Devrait s’engager avec toute personne susceptible d’être responsable lorsqu’il s’agit de données d’enfants afin de s’assurer que cela est aligné et que le personnel comprend la sensibilité.
  • Tâche 6 : Tenir compte de tous les aspects du modèle pour les données présentées de manière appropriée.
    • Considérations pour l’IA centrée sur l’enfant : Un bref résumé doit être rédigé pour transmettre et soutenir correctement toutes les facettes ou la livraison d’une explication/du modèle utilisé.

Qu’est-ce qu’un EAM : Gestion de l’assurance de l’explicabilité

Ces modèles vous aideront à accomplir les 6 tâches une fois mis en œuvre. Doit être inclus dans une liste de contrôle

  • Passer en revue la liste de contrôle – vous assurer que vous êtes en mesure de fournir : Transparence de bout en bout, la prise en compte et l’impact sont pris en compte dans le secteur, le potentiel est pris en compte lors de l’explication de la profondeur.

Données dans les modèles

Lors de la prise en compte des points de données/entrées pour les données, le groupe ou le modèle doit :

  • Établir des objectifs de sécurité, une modélisation qui mène à des résultats, mettre en œuvre des évaluations et l’impact sur les parties prenantes.

french

Qu’est-ce que l’explicabilité de l’IA ?

L’explicabilité de l’IA est le degré auquel les systèmes d’IA et les pratiques de gouvernance permettent à une personne de comprendre la *raison d’être* du comportement d’un système. Elle englobe également la démonstration des processus derrière sa conception, son développement et son déploiement, garantissant la durabilité, la sécurité, l’équité et la responsabilité dans tous les contextes.

Aspects fondamentaux de l’explicabilité de l’IA

L’explicabilité implique la *communicabilité*, qui nécessite des explications claires et accessibles. La profondeur et le contenu des explications dépendent du contexte socioculturel dans lequel elles sont fournies et du public qui les reçoit. L’explicabilité de l’IA aborde :

  • Les résultats des modèles algorithmiques (pour les décisions automatisées ou comme intrants dans la prise de décision humaine).
  • Les processus par lesquels un modèle et son système/interface englobant sont conçus, développés, déployés et mis hors service.

Explicabilité de l’IA vs. Transparence de l’IA

Bien que liées, l’explicabilité se concentre sur la *pratique* de fournir des explications sur les résultats soutenus par l’IA et les processus qui les sous-tendent. La transparence de l’IA se réfère à la fois à :

  1. L’interprétabilité d’un système (comprendre comment et pourquoi un modèle a fonctionné dans un contexte spécifique).
  2. La démonstration que les processus et la prise de décision derrière les systèmes d’IA sont durables, sûrs et équitables.

En fin de compte, développer une explication *nécessite* un certain degré de transparence.

Mise en œuvre pratique

Mettre en œuvre l’explicabilité de l’IA signifie se concentrer directement sur les pratiques d’explication *axée sur les résultats* et *axée sur les processus*.

Considérations clés pour les implémenteurs

  • **Le contexte est essentiel :** La profondeur, l’étendue et le contenu des explications doivent varier en fonction du contexte socioculturel et du public.
  • **Compromis entre sécurité et explicabilité :** Les mesures de sécurité prises pour protéger les algorithmes et les données peuvent créer un conflit avec l’explicabilité, créant un risque de biais, pouvant entraîner des conséquences imprévues.
  • **Considérations centrées sur l’enfant :** Préoccupations supplémentaires telles que les effets à long terme sur le développement holistique ainsi que l’exfiltration de données.

Quels sont les principaux types d’explication ?

Alors que l’IA continue d’imprégner les processus décisionnels critiques, il ne suffit plus d’avoir un modèle performant. Les parties prenantes et les organismes de réglementation exigent de la transparence, ce qui rend nécessaire l’explicabilité des systèmes d’IA. Cette section se penche sur les principaux types d’explications essentiels pour instaurer la confiance et assurer la conformité.

Le type d’explication requis variera en fonction du contexte, du contexte socioculturel et du public auquel il est destiné. Bien qu’il n’existe pas d’approche « universelle » pour expliquer les décisions assistées par l’IA/ML, ces six types d’explication courants sont conçus pour aider votre équipe de projet d’IA à élaborer des explications concises et claires. Chacun est lié à un principe RISFIEE (Responsabilité, Intégrité, Sécurité, Fiabilité, Inclusion, Explicabilité, et Économie des données) :

  • Explication de justification : aborde le « pourquoi » d’une décision d’IA.
  • Explication de responsabilité : clarifie qui est responsable tout au long du cycle de vie du modèle d’IA, en fournissant un point de contact pour l’examen humain.
  • Explication des données : détaille les données utilisées, leurs sources et la manière dont elles ont été gérées pour parvenir à une décision.
  • Explication d’équité : décrit les mesures prises pour garantir des décisions d’IA impartiales et équitables.
  • Explication de sécurité : décrit les mesures mises en place pour maximiser les performances, la fiabilité, la sécurité et la robustesse des résultats de l’IA.
  • Explication d’impact : explique ce qui a été pris en compte concernant les effets potentiels d’un système d’aide à la décision par IA sur un individu et la société.

Ces explications peuvent en outre être divisées en deux grands types :

Explications basées sur les processus

Ces explications démontrent les processus de bonne gouvernance et les meilleures pratiques qui ont été suivies tout au long de la conception et du déploiement du système d’IA. Elles montrent comment la durabilité, la sécurité, l’équité et la gestion responsable des données ont été prises en compte de bout en bout dans le cycle de vie du projet.

Par exemple, si vous essayez d’expliquer l’équité et la sécurité, les éléments de votre explication consisteront à démontrer que vous avez pris des mesures adéquates tout au long de la production et du déploiement du système pour garantir que son résultat est juste et sûr.

Explications basées sur les résultats

Ces explications se concentrent sur le raisonnement qui sous-tend les résultats du modèle, en délimitant les facteurs contextuels et relationnels. Elles doivent être communiquées en langage clair, accessible aux parties prenantes concernées.

Il est également important de prendre en compte l’IA explicable pour les enfants. En ce qui concerne les droits des enfants dans le cadre des systèmes d’IA, il s’agit de s’assurer que les enfants comprennent comment les systèmes d’IA les impactent et d’utiliser un langage adapté à leur âge.

N’oubliez pas que la fourniture d’explications basées sur les processus et sur les résultats est essentielle pour favoriser la confiance, démontrer la responsabilité et, en fin de compte, garantir le déploiement responsable des systèmes d’IA.

Quelles considérations doivent être prises en compte lors de la construction de systèmes d’IA explicables de manière appropriée ?

À mesure que les systèmes d’IA s’intègrent davantage dans les processus décisionnels critiques, en particulier dans des secteurs tels que la legal-tech, la conformité et la gouvernance, il est primordial de comprendre et d’expliquer leur logique. L’essentiel est de s’assurer que les projets d’IA sont durables, équitables, sûrs, responsables et maintiennent la qualité et l’intégrité des données. Cela implique de mettre l’accent sur la communicabilité, en fournissant des explications claires et accessibles adaptées au contexte socioculturel et au public.

Décomposons les principales considérations :

Transparence et responsabilité

La transparence des résultats et des processus est fondamentale. La documentation détaillant la manière dont un système d’IA a été conçu, développé et déployé permet de justifier les actions et les décisions tout au long du cycle de vie du projet. Ceci est directement lié à l’article 5, paragraphe 1, du RGPD britannique, qui stipule que les données à caractère personnel doivent être « traitées de manière licite, loyale et transparente ». Les équipes de projet doivent satisfaire à tous les aspects de ce principe.

  • Divulguer l’utilisation de l’IA : informer proactivement les personnes, à l’avance, de l’utilisation de l’IA dans les décisions les concernant. Être transparent sur les raisons, le moment et la manière dont l’IA est utilisée.
  • Expliquer de manière significative les décisions : fournir une explication cohérente et véridique, présentée de manière appropriée et fournie au bon moment.

La responsabilité implique de garantir une surveillance appropriée et d’être responsable envers les parties prenantes internes et externes, notamment les régulateurs et les personnes concernées. Cela comprend la prise de responsabilité du respect des principes de protection des données et la démonstration de ce respect par des mesures techniques et organisationnelles appropriées ; protection des données dès la conception et par défaut.

  • Attribuer des responsabilités : Identifier et attribuer des responsabilités au sein de l’organisation pour la gestion et la supervision des exigences d’« explicabilité » des systèmes d’IA, y compris un point de contact humain pour les clarifications ou la contestation des décisions.
  • Justifier et prouver : Examiner activement et documenter les choix justifiés concernant la conception et le déploiement de modèles d’IA explicables de manière appropriée. Documenter ces considérations et démontrer qu’elles sont présentes dans la conception et le déploiement du modèle. Montrer la preuve des explications fournies aux individus.

Contexte et impact

Il n’existe pas d’approche unique. Les considérations contextuelles impliquent de prêter attention à divers éléments interdépendants qui peuvent affecter l’explication des décisions assistées par l’IA et la gestion du processus global. Il doit s’agir d’une évaluation continue tout au long du cycle de vie du projet.

  • Choisir les modèles et les explications appropriés : En fonction du contexte, de l’impact potentiel et de ce qu’une personne doit savoir sur une décision, sélectionner un modèle d’IA explicable de manière appropriée et hiérarchiser les types d’explication pertinents.
  • Adapter la gouvernance et l’explication : Assurer des pratiques de gouvernance robustes, adaptées à l’organisation et aux circonstances et besoins spécifiques de chaque partie prenante.
  • Identifier le public : Tenir compte du public et adapter les explications à son niveau d’expertise et de compréhension. Quel niveau d’explication est adapté à l’objectif, que ce soit pour les utilisateurs finaux, les implémenteurs, les auditeurs ou les personnes concernées par la décision ? Tenir compte des vulnérabilités et des aménagements raisonnables pour ceux qui ont besoin d’explications.

Réfléchir aux impacts des systèmes d’IA permet de démontrer que les techniques algorithmiques ne nuiront pas ou n’altéreront pas le bien-être individuel. Cela comprend l’évaluation des objectifs et des finalités éthiques du projet d’IA aux étapes initiales, ainsi que la révision et la réflexion sur ces impacts tout au long du développement afin d’atténuer les préjudices potentiels.

Mise en œuvre pratique et principales considérations

Lorsque vous recherchez des degrés d’explicabilité plus élevés pour les modèles et une meilleure interprétabilité des résultats, tenez compte des éléments suivants :

  • Besoins spécifiques au domaine : Évaluez le contexte, l’impact potentiel et les besoins spécifiques au domaine lors de la détermination des exigences d’interprétabilité. Cela comprend la prise en compte du type d’application, des attentes, des normes et des règles spécifiques au domaine, ainsi que des technologies existantes. Comment la solution affectera-t-elle les normes de l’industrie et les autres conseils gouvernementaux ?
  • Techniques interprétables standard : Utilisez des techniques interprétables standard autant que possible, en équilibrant les risques et les besoins spécifiques au domaine avec les ressources de données disponibles, les connaissances du domaine et les techniques d’IA/ML appropriées.
  • Systèmes d’IA à « boîte noire » : Lorsque vous envisagez des systèmes d’IA à « boîte noire », évaluez en profondeur les impacts et les risques potentiels, explorez les options d’outils d’interprétabilité supplémentaires et formulez un plan d’action pour optimiser l’explicabilité. Créez des rapports détaillés pour aider à la prise de décision du modèle.
  • Compréhension humaine : Gardez à l’esprit que l’interprétabilité doit être exprimée en termes de capacités et de limites de la cognition humaine, en donnant la priorité à la simplicité et à la parcimonie informationnelle pour une IA accessible.

Types d’explications

Le contexte détermine quelles informations sont nécessaires, utiles ou accessibles pour expliquer les décisions impliquant l’IA et, par conséquent, quels types d’explications sont les plus appropriés. Il existe plusieurs types d’explications qui ont été conçus pour aider votre équipe de projet d’IA à élaborer des explications concises et claires :

  • Explication logique : Aide les gens à comprendre les raisons qui ont conduit à un résultat de décision.
  • Explication de la responsabilité : Aide les gens à comprendre qui est impliqué dans le développement et la gestion du modèle d’IA, et qui contacter pour un examen humain d’une décision.
  • Explication des données : Aide les gens à comprendre quelles données les concernant et quelles autres sources de données ont été utilisées dans une décision d’IA particulière, ainsi que les données utilisées pour former et tester le modèle d’IA.
  • Explication de l’équité : Aide les gens à comprendre les mesures prises pour s’assurer que les décisions d’IA sont généralement impartiales et équitables, et s’ils ont été traités équitablement eux-mêmes.
  • Explication de la sécurité : Aide les gens à comprendre les mesures mises en place et les étapes suivies pour maximiser les performances, la fiabilité, la sécurité et la robustesse des résultats de l’IA, ainsi que la justification du type de système d’IA choisi.
  • Explication de l’impact : Aide les gens à comprendre les considérations relatives aux effets que le système d’aide à la décision basé sur l’IA peut avoir sur un individu et sur la société.

Qu’est-ce que l’interprétabilité dans le contexte des systèmes d’IA/ML ?

Dans le monde en évolution rapide de l’IA et de l’apprentissage automatique (ML), l’interprétabilité est devenue une préoccupation essentielle pour les régulateurs, les responsables de la conformité et tous ceux qui déploient ces systèmes. En termes simples, l’interprétabilité est le degré auquel un humain peut comprendre comment et pourquoi un modèle d’IA/ML a fait une prédiction ou pris une décision particulière dans un contexte spécifique. Il s’agit de plus que simplement ouvrir la « boîte noire » ; il s’agit de rendre la justification du modèle accessible et compréhensible pour les utilisateurs humains.

Le cœur de l’interprétabilité

L’interprétabilité va au-delà de la compréhension abstraite ; elle est centrée sur la capacité d’un humain à saisir le fonctionnement interne et la logique sous-jacente d’un système d’IA. Idéalement, les parties prenantes devraient être en mesure de disséquer les raisons qui sous-tendent les résultats ou les comportements d’un modèle, en identifiant comment divers éléments d’entrée, interactions et paramètres ont contribué à un résultat spécifique. Cela nécessite de traduire des composantes mathématiques complexes en un langage simple et courant que les destinataires des décisions peuvent comprendre.

Préoccupations réglementaires et implications pratiques

Les régulateurs mettent de plus en plus l’accent sur l’interprétabilité comme pierre angulaire du développement et du déploiement responsables de l’IA. Le besoin de transparence crée des tensions dans les contextes à enjeux élevés comme la sécurité nationale, où l’explication d’un système d’IA peut exposer des vulnérabilités. Cependant, le manque d’interprétabilité soulève des préoccupations concernant :

  • Biais et équité : sans comprendre le fonctionnement d’un modèle, il est difficile de détecter et d’atténuer les biais discriminatoires intégrés dans les données ou les algorithmes.
  • Responsabilité : si un système d’IA commet une erreur ou produit un résultat injuste, il est essentiel de retracer le processus décisionnel et d’identifier les parties responsables.
  • Conséquences imprévues : l’incapacité d’interpréter le comportement d’un modèle peut entraîner des risques manqués et des impacts négatifs inattendus, en particulier sur les populations vulnérables.

Pour les systèmes d’IA ayant un impact sur les enfants, les enjeux sont particulièrement élevés. Des réglementations telles que le Code de conception adapté à l’âge du Royaume-Uni mettent l’accent sur les explications adaptées aux enfants et les pratiques de données transparentes. Les orientations politiques de l’UNICEF sur l’IA pour les enfants ajoutent que les systèmes doivent être développés en tenant compte des enfants les plus vulnérables, quelle que soit leur compréhension.

Outils pratiques pour la construction de systèmes interprétables

Bien que l’utilisation de modèles moins complexes comme la régression linéaire puisse améliorer l’interprétabilité, parfois les modèles « boîte noire » comme les réseaux de neurones ou les forêts aléatoires offrent des performances plus puissantes. La solution consiste alors à intégrer des techniques d’interprétabilité ‘post-hoc’ — des méthodes appliquées après la construction d’un modèle pour l’expliquer extérieurement. Voici deux techniques principales qui peuvent aider avec de tels modèles :

  • Explications locales : des techniques telles que LIME (Local Interpretable Model-agnostic Explanations) fournissent des explications par instance, c’est-à-dire pourquoi le modèle a pris cette décision explicite.
  • Explications globales : PDP (Partial Dependence Plots) et ALE (Accumulated Local Effects Plot) offrent un aperçu de l’importance « moyenne » des caractéristiques pour expliquer et évaluer un modèle de manière globale à haut niveau.

Construire des systèmes d’IA/ML explicables n’est pas facile, mais c’est essentiel. Les équipes doivent faire des choix justifiés et transparents concernant la conception et le déploiement des modèles, et être en mesure d’expliquer clairement comment l’IA a influencé des décisions spécifiques.

Quels sont les aspects clés de la transparence dans le développement de l’IA ?

Alors que l’adoption de l’IA s’accélère, la transparence n’est plus une option mais une exigence fondamentale. La transparence dans l’IA, selon les normes de l’industrie, englobe deux aspects essentiels. Premièrement, elle implique l’interprétabilité du système d’IA : la capacité de comprendre comment et pourquoi un modèle se comporte comme il le fait, en ouvrant effectivement la « boîte noire ». Deuxièmement, la transparence exige de démontrer que les processus de conception, de développement et de déploiement du système d’IA sont durables, sûrs, équitables et soutenus par des données gérées de manière responsable. Cela signifie une documentation et une justification claires à chaque étape du cycle de vie de l’IA.

Aperçus principaux

Être transparent dans le développement de l’IA repose sur plusieurs aspects clés :

  • Divulguer l’utilisation de l’IA : Soyez transparent sur l’utilisation de l’IA dans les processus décisionnels avant de prendre des décisions. Indiquez clairement quand et pourquoi l’IA est utilisée.
  • Expliquer les décisions de manière significative : Fournir aux parties prenantes des explications véridiques, cohérentes et présentées de manière appropriée au bon moment.
  • Enregistrement de la transparence : Utiliser des cadres tels que la norme britannique d’enregistrement de la transparence algorithmique (ATRS) pour publier ouvertement des informations sur les outils algorithmiques utilisés dans les processus décisionnels du secteur public. L’ATRS offre un moyen structuré de communiquer sur les outils algorithmiques et leur impact.

Préoccupations réglementaires

La transparence de l’IA n’est pas seulement une bonne pratique ; c’est un impératif de conformité. L’article 5(1) du RGPD britannique exige que le traitement des données personnelles soit licite, équitable et transparent. Ce mandat juridique façonne la manière dont les organisations abordent le développement et le déploiement de l’IA. Le Bureau du Commissaire à l’information (ICO) du Royaume-Uni a également élaboré des orientations sur l’explication des décisions prises avec l’IA qui soulignent la nécessité d’explications claires et accessibles.

Cependant, des conflits peuvent émerger, en particulier dans des domaines tels que la sécurité nationale, où les intérêts de sécurité pourraient entrer en conflit avec le besoin de transparence. De plus, les équipes de projet doivent aborder les risques potentiels liés à la sécurité de l’IA, la manière dont elles gèrent les informations générées sur ces risques et dans quelle mesure les explications du modèle et des processus du projet d’IA sont mises à disposition.

Implications pratiques

Pour que les organisations mettent efficacement en œuvre la transparence de l’IA, certaines mesures concrètes doivent être suivies :

  • Explications basées sur les processus : Démontrer de bonnes pratiques de gouvernance tout au long de la conception et de l’utilisation du système d’IA. Documenter la manière dont la durabilité, la sécurité, l’équité et la gestion responsable des données sont intégrées dans le cycle de vie du projet.
  • Explications basées sur les résultats : Offrir des explications claires et accessibles des résultats du modèle en langage clair. Justifier la manière dont les jugements assistés par l’IA sont atteints, en particulier dans les systèmes où l’humain est dans la boucle.
  • Aborder les préoccupations relatives à l’équité des données : La transparence nécessite un engagement ferme envers l’équité des données afin de garantir l’inclusion d’un éventail diversifié de données ; un rapport transparent devrait également démontrer que cet objectif a été atteint. Cela nécessite d’aborder la manière dont les ensembles de données sont construits, gérés et utilisés, en mettant continuellement l’accent sur l’atténuation des biais potentiels.

Considérations spéciales : IA centrée sur l’enfant

La transparence n’est pas une approche unique et nécessite un soin particulier pour les groupes vulnérables. De nombreux documents d’orientation centrés sur l’enfant, tels que les orientations politiques de l’UNICEF sur l’IA pour les enfants et le code de conception adapté à l’âge de l’ICO britannique, mentionnent la transparence. Il s’agit de s’assurer que les enfants comprennent comment les systèmes d’IA les affectent. Ils doivent également être fournis d’une manière adaptée à leur âge. Cela implique d’informer les enfants lorsqu’ils interagissent avec un système d’IA plutôt qu’avec un humain ; de fournir des informations claires sur la confidentialité ; de fournir des explications « concises » à l’utilisateur lorsque des données personnelles sont utilisées pour la formation ; de publier des politiques, des normes communautaires et des conditions d’utilisation claires ; et d’utiliser des représentations d’informations adaptées aux enfants qui sont adaptées à des âges spécifiques.

Quels sont les aspects clés de la responsabilisation dans le développement de l’IA ?

La responsabilisation est cruciale pour un développement de l’IA durable, équitable et sûr. Il s’agit de justifier les processus et les résultats de l’IA et d’être responsable devant les parties prenantes internes, les organismes de réglementation et les personnes concernées.

Concepts fondamentaux : de la transparence à l’explicabilité

La responsabilisation nécessite la transparence, mais elles ne sont pas interchangeables. La transparence implique l’interprétabilité (« ouvrir la boîte noire ») et la démonstration que les processus de conception/développement sont durables, sûrs et équitables.

L’explicabilité, qui est centrée sur la pratique, se concentre sur l’opérationnalisation de la transparence à la fois dans les résultats supportés par l’IA et dans les processus de développement.

Préoccupations réglementaires et cadres juridiques

Le Règlement Général sur la Protection des Données (RGPD) du Royaume-Uni encadre la responsabilisation comme un principe fondamental, exigeant la responsabilité du respect des principes de protection des données. Cela englobe la mise en œuvre de mesures techniques et organisationnelles appropriées.

Le Bureau du Commissaire à l’Information (ICO) du Royaume-Uni et les initiatives telles que la Norme d’Enregistrement de la Transparence Algorithmique (ATRS) reflètent l’importance croissante accordée aux pratiques d’IA responsables.

Implications pratiques et mesures concrètes

Être responsable signifie plusieurs actions clés pour les équipes techniques et juridiques :

  • Attribuer la responsabilité : Désigner les personnes au sein de l’organisation qui gèrent les exigences d’explicabilité, en assurant un point de contact clair pour les demandes de renseignements ou les contestations de décisions.
  • Justifier et prouver : Faire et documenter activement les choix justifiables liés à la conception et au déploiement explicables. Prouver ces choix tout au long du cycle de vie du projet, en démontrant des explications significatives aux individus.
  • Transparence : Les équipes de projet doivent être honnêtes sur la façon dont et pourquoi vous utilisez les données personnelles.
  • Expliquer les décisions de manière significative : Fournir aux parties prenantes une explication cohérente qui est :
    • Véritable et significative ;
    • Rédigée ou présentée de manière appropriée ; et
    • Fournie au bon moment.

Les organisations doivent démontrer leur engagement à expliquer les décisions prises avec l’IA, en se concentrant sur les processus et les actions tout au long du cycle de vie du modèle AI/ML (conception, approvisionnement/externalisation et déploiement).

IA centrée sur l’enfant : redoubler d’efforts en matière de responsabilité

Lorsque les systèmes d’IA ont un impact sur les enfants, la responsabilisation est primordiale. Le respect du Code de Conception Adapté à l’Âge de l’ICO du Royaume-Uni est fondamental. Les directives de l’UNICEF exigent de veiller à ce que les systèmes d’IA protègent et autonomisent les enfants utilisateurs, quelle que soit leur compréhension du système. Les organisations doivent également tenir compte des droits de l’enfant, y compris la supervision par des experts et les organismes indépendants axés sur leurs droits.

En fin de compte, la responsabilisation dans l’IA est un cheminement continu, nécessitant une réflexion constante, une évaluation d’impact et un engagement à construire des systèmes fiables.

french

Quels aspects du contexte doivent être pris en compte lors de l’explication de décisions assistées par l’IA ?

Lors de l’explication de décisions assistées par l’IA, « tenir compte du contexte » est primordial. Ce n’est pas une action ponctuelle, mais une considération continue, de la conception au déploiement, et même lors de la présentation de l’explication elle-même.

Aspects clés de la prise en compte du contexte :

  • Sélection du modèle et de l’explication : Choisissez des modèles et des explications adaptés au scénario spécifique. Cela signifie évaluer le contexte, l’impact potentiel de la décision et ce que l’individu doit savoir à ce sujet. Cette évaluation vous aide à :
    • Choisir un modèle d’IA qui soit approprié en termes d’explicabilité.
    • Prioriser la fourniture de types d’explication pertinents.
  • Gouvernance et adaptation des explications : La gouvernance de l’explicabilité de l’IA doit être :
    • Robuste et refléter les meilleures pratiques.
    • Adaptée à votre organisation, aux circonstances et aux besoins des parties prenantes.
  • Identification de l’audience : Reconnaître que l’audience influence le type d’explications significatives et utiles. Des considérations doivent être accordées à :
    • Les utilisateurs finaux et les implémenteurs
    • Les auditeurs
    • Les personnes affectées par les décisions
      • Leur niveau d’expertise concernant la décision.
      • L’éventail des personnes soumises aux décisions (pour tenir compte de la variation des connaissances).
      • Si les individus ont besoin d’aménagements raisonnables dans la manière dont ils reçoivent les explications.
      • Tenir compte des besoins d’explication des plus vulnérables.

    Pour tenir compte des vulnérabilités uniques des enfants, les systèmes d’IA doivent être adaptés aux contextes nationaux et locaux, de la conception au déploiement, afin d’éliminer les biais algorithmiques résultant de l’aveuglement contextuel. Vous devez également envisager la participation active des enfants à toutes les étapes du cycle de vie du projet afin de prendre en compte leur contexte d’utilisation prévue des systèmes. Lors de l’examen des impacts potentiels, accordez la priorité à « soutenir activement les enfants les plus marginalisés ».

    Comment peut-on réfléchir aux impacts des systèmes d’IA/ML ?

    À mesure que les systèmes d’IA/ML agissent de plus en plus en tant que fiduciaires de la prise de décision humaine, il est essentiel de réfléchir à leurs impacts. Les individus ne peuvent pas directement tenir ces systèmes responsables, les organisations doivent donc démontrer que les techniques algorithmiques ne nuisent pas au bien-être.

    Cette réflexion doit commencer dès les premières étapes du projet, en abordant les objectifs et les finalités éthiques. Cependant, la réflexion ne doit pas s’arrêter là. Vous devez revoir et réfléchir à ces impacts tout au long des étapes de développement et de mise en œuvre. Documentez tout nouvel impact identifié, ainsi que les mesures d’atténuation mises en œuvre.

    Aspects clés de la réflexion sur les impacts

    Assurer le bien-être individuel : Construire et mettre en œuvre des systèmes d’IA/ML qui :

    • Favorisent l’intégrité physique, émotionnelle et mentale.
    • Garantissent des décisions libres et éclairées.
    • Sauvegardent l’autonomie et l’expression.
    • Soutiennent les capacités d’épanouissement et de poursuite des intérêts.
    • Préservent la vie privée indépendamment de la technologie.
    • Sécurisent les capacités de contribuer aux groupes sociaux.

    Assurer le bien-être sociétal : Construire des systèmes qui :

    • Sauvegardent le lien humain et la cohésion sociale.
    • Priorisent la diversité, la participation et l’inclusion.
    • Encouragent toutes les voix à être entendues.
    • Traitent tous les individus de manière égale et protègent l’équité sociale.
    • Utilisent l’IA pour protéger un traitement juste et égal devant la loi.
    • Utilisent l’innovation pour autonomiser et faire progresser le bien-être.
    • Anticipent les impacts mondiaux et générationnels plus larges.

    Considérations pour l’IA centrée sur l’enfant

    La réflexion sur les impacts est directement liée à la garantie d’équité, de non-discrimination et de confidentialité des données pour les enfants. Cela signifie:

    • Soutenir activement les enfants marginalisés afin de garantir les avantages des systèmes d’IA.
    • S’assurer que les ensembles de données comprennent une diversité de données sur les enfants.
    • Mettre en œuvre des approches de données responsables pour traiter les données des enfants avec soin et sensibilité.
    • Adhérer au code de conception adapté à l’âge, en veillant à ce que les données des enfants ne soient pas utilisées d’une manière qui affecte négativement leur bien-être ou contrevienne aux normes établies.

    french

    Comment construire un système d’IA/ML approprié pour extraire des informations pertinentes pour une gamme de types d’explication ?

    La construction d’un système d’IA/ML capable de fournir des informations pertinentes pour divers types d’explication nécessite une prise en compte attentive de plusieurs facteurs, notamment la sélection du modèle, la gestion des données et les processus de gouvernance.

    Considérations Clés pour l’Explicabilité

    • Contexte, Impact et Domaine : Évaluer le contexte spécifique, l’impact potentiel et les besoins spécifiques au domaine lors de l’établissement des exigences d’interprétabilité du projet.
    • Techniques Standard : S’appuyer sur des techniques interprétables standard lorsque cela est possible, en équilibrant les risques spécifiques au domaine, les données disponibles et les techniques d’IA/ML appropriées.
    • Modèles « Boîte Noire » : Si vous utilisez un système d’IA « boîte noire », évaluez soigneusement les impacts potentiels et les risques associés, envisagez des options pour des outils d’interprétabilité supplémentaires et formulez un plan d’action pour optimiser l’explicabilité.
    • Compréhension Humaine : Faites attention à la fois aux capacités et aux limitations de la cognition humaine lorsque vous considérez les besoins d’interprétabilité.

    Plusieurs tâches peuvent faciliter la conception et le déploiement de systèmes d’IA transparents et explicables, aidant à la clarification des résultats pour les parties prenantes :

    Tâches pour la Gestion de l’Assurance de l’Explicabilité

    • Tâche 1 : Sélectionner les Explications Prioritaires : Identifier les types d’explication les plus pertinents (Justification, Responsabilité, Données, Équité, Sécurité, Impact) en fonction du domaine, du cas d’utilisation et de l’impact potentiel sur les individus.
    • Tâche 2 : Collecter et Pré-traiter : Collecter et préparer les données de manière à tenir compte de l’explication, en considérant les sources de données, la qualité et les biais potentiels. Cela aide à construire diverses explications.
    • Tâche 3 : Conception du Système pour l’Extraction d’Informations : Construire le système pour extraire des informations pertinentes pour une gamme de types d’explication, et pour construire des modèles interprétables. Utiliser la Sélection et l’Entraînement du Modèle qui dépend des besoins d’explication, et aussi du choix entre des modèles plus Explicables et des systèmes ‘boîte noire’.
    • Tâche 4 : Traduire la Justification : Traduire la justification du système, en l’incorporant dans votre processus de prise de décision. Les implémentations des sorties de votre système d’IA devront reconnaître ce qui est pertinent pour la décision du résultat pour un utilisateur impacté.
    • Tâche 5 : Préparer les Implémenteurs : Pour s’assurer qu’ils utilisent le modèle d’IA/ML de manière responsable et équitable. La formation qu’ils reçoivent doit couvrir les bases de l’apprentissage automatique, ses limitations, et comment gérer les biais cognitifs.
    • Tâche 6 : Construire et Présenter des Explications :, Considérer comment les décisions doivent être fournies, et comment d’autres individus, en fonction du contexte, peuvent s’attendre à ce que vous expliquiez vos décisions en tant qu’utilisateur de la technologie automatisée d’IA-Assistance. Soyez ouvert à des explications et des détails supplémentaires sur les risques de certaines actions ou scénarios.

    Répondre aux Préoccupations Réglementaires et aux Considérations Éthiques

    Lors du développement de systèmes d’IA – et en particulier ceux qui traitent des données sensibles ou des décisions à fort impact – la conformité au RGPD britannique et à d’autres réglementations est primordiale. Voici comment intégrer l’explicabilité dans un cadre de conformité :

    • Transparence : Rendre l’utilisation de la prise de décision par IA/ML évidente et expliquer les décisions de manière logique.
    • Responsabilité : Assurer une surveillance appropriée et être tenu pour responsable par les organismes internes et externes de toute décision assistée par l’IA/ML.
    • Contexte : Il n’y a pas de solution unique — adapter les explications au cas d’utilisation et au public est crucial.
    • Impacts : Impliquer activement la supervision humaine dans les processus de prise de décision pour éviter des effets potentiellement néfastes pour un utilisateur final.

    Normes d’Enregistrement de la Transparence

    Les organisations peuvent utiliser des ressources telles que la Norme d’Enregistrement de la Transparence Algorithmique (ATRS), qui est un cadre qui capture des informations sur les outils algorithmiques et les systèmes d’IA. Cela aide les organismes du secteur public à publier ouvertement des informations sur les services qu’ils utilisent pour les processus de prise de décision.

    Compromis entre Sécurité et Explicabilité

    Méfiez-vous des compromis entre la sécurité et l’explicabilité. Bien que la transparence puisse créer des vulnérabilités, son absence soulève des préoccupations concernant les biais, l’équité et la responsabilité. Il est essentiel de trouver un équilibre entre ces éléments.

    Comment la raison d’être des résultats d’un système d’IA peut-elle être traduite en des raisons facilement compréhensibles ?

    Traduire la logique complexe de l’IA en des raisons compréhensibles est un défi crucial, qui exige une considération attentive du contexte, du public et des impacts potentiels. Voici comment les journalistes spécialisés en technologie recommandent d’aborder cette traduction pour la gouvernance et la conformité de l’IA :

    Comprendre l’explication de la raison d’être

    L’objectif principal est d’élucider le ‘pourquoi’ d’une décision d’IA d’une manière accessible. Cela implique :

    • Démontrer comment le système s’est comporté pour parvenir à la décision.
    • Illustrer la manière dont les différents composants ont transformé les entrées en sorties, en mettant en évidence les caractéristiques, les interactions et les paramètres importants.
    • Transmettre la logique sous-jacente en termes facilement compréhensibles pour le public visé.
    • Contextualiser les résultats du système par rapport à la situation réelle de la personne concernée.

    Les explications basées sur le processus clarifient la conception et le flux de travail de déploiement, en se concentrant sur l’interprétabilité et l’explicabilité, y compris la collecte de données, la sélection du modèle, l’extraction des explications et la diffusion. Les explications basées sur les résultats traduisent ensuite le fonctionnement du système, y compris les variables d’entrée/sortie et les règles, en langage courant pour clarifier le rôle des facteurs et des résultats statistiques dans le raisonnement sur le problème.

    Maximes clés pour la traduction

    Plusieurs principes clés guident le processus de traduction :

    • Être Transparent : Divulguer l’utilisation de l’IA de manière proactive et expliquer les décisions de manière significative.
    • Être Responsable : Attribuer la responsabilité de l’explicabilité et justifier les choix de conception. S’assurer qu’il existe un point de contact humain pour les clarifications.
    • Considérer le contexte : Adapter la gouvernance et l’explication du modèle en fonction de l’expertise, des vulnérabilités et des exigences en matière d’ajustements raisonnables du public.
    • Réfléchir aux impacts : Aborder les objectifs et les buts éthiques du projet d’IA dans les évaluations initiales et continues.

    Naviguer dans l’IA centrée sur l’enfant

    Lorsque des enfants sont concernés, des considérations supplémentaires sont primordiales :

    • Les explications techniques doivent être fournies dans un langage adapté à l’âge.
    • Impliquer les enfants dans les phases de conception afin de les familiariser avec les modèles et leurs décisions.
    • Assurer une transparence totale quant à l’utilisation des données des enfants tout au long du système d’IA.
    • Établir des rôles et des responsabilités organisationnels en matière de responsabilité, de protection et d’autonomisation des enfants utilisateurs.

    Stratégies pratiques pour le reporting des modèles

    Le reporting des modèles joue un rôle essentiel dans la traduction des résultats :

    • Reconnaître les déterminants légitimes du résultat. Les implémenteurs doivent reconnaître les facteurs clés et déterminer le résultat décrit.
    • Vérifier si les corrélations produites par le modèle ont un sens pour le cas d’utilisation considéré.
    • Préparer les implémenteurs en leur enseignant les bases de l’apprentissage automatique et les limites des systèmes automatisés.

    Mise en œuvre d’une communication efficace

    La communication des résultats nécessite une planification minutieuse :

    • Créer un bref résumé des décisions assistées par l’IA, appuyé par des graphiques, des vidéos ou des ressources interactives.
    • Assurer l’accessibilité et une communication claire afin de limiter les résultats inattendus.
    • Inclure des références aux politiques pertinentes tout au long du processus.

    Modèle de gestion de l’assurance de l’explicabilité (EAM)

    Le modèle EAM comprend des tâches spécifiques conçues pour faciliter l’ensemble du processus d’explication. Il comprend des explications hiérarchisées, des données pré-traitées collectées et un système identifié pour extraire des informations pertinentes pour une gamme de types d’explication.

    Gestion des risques et défis

    Les risques et les avantages potentiels doivent être pris en compte, mais ils ne garantissent pas une transparence complète et équitable pour tous les cas d’utilisation. Comme l’écrira le journaliste spécialisé en technologie, « Les plans les mieux conçus ne peuvent pas être parfaits ou infaillibles ».

    Comment les implémenteurs de systèmes d’IA doivent-ils se préparer au déploiement ?

    Le déploiement responsable des systèmes d’IA nécessite une préparation minutieuse, en particulier lorsque l’explicabilité et la responsabilité sont primordiales. Les implémenteurs ont besoin d’une compréhension globale des capacités et des limites du système pour garantir son application éthique et efficace.

    Préparations clés pour le déploiement d’un système d’IA

    Les implémenteurs doivent recevoir une formation appropriée qui englobe :

    • Principes fondamentaux de l’apprentissage automatique : Une compréhension fondamentale du fonctionnement des algorithmes d’apprentissage automatique.
    • Limites de l’IA : Reconnaissance des contraintes et des pièges potentiels de l’IA et des technologies automatisées d’aide à la décision.
    • Analyse risques-avantages : Connaissance des avantages et des risques associés au déploiement de systèmes d’IA pour l’aide à la décision.
    • Gestion des biais cognitifs : Techniques pour atténuer les biais cognitifs, tels que le biais d’automatisation (sur-confiance dans les résultats de l’IA) et le biais de méfiance envers l’automatisation (sous-confiance dans les résultats de l’IA).

    Gestion de l’assurance de l’explicabilité

    Le succès du déploiement nécessite également une gestion approfondie de l’assurance de l’explicabilité, englobant ces tâches clés :

    • Priorisation des explications : Déterminer les types d’explications les plus critiques (Justification, Responsabilité, etc.) en fonction du domaine, du cas d’utilisation et de l’impact potentiel sur les individus.
    • Collecte et prétraitement des données : Garantir la qualité, la représentativité des données et traiter les biais potentiels lors de la collecte et du prétraitement des données. Inclut notamment l’étiquetage correct des données.
    • Conception du système pour l’extraction d’informations : Construire le système d’IA pour extraire les informations pertinentes pour différents types d’explications, en reconnaissant les coûts et les avantages de l’utilisation de modèles d’IA plus récents mais possiblement moins explicables.
    • Traduction de la justification du modèle : Convertir la justification technique des résultats du système en termes compréhensibles et justifier l’incorporation d’inférences statistiques.
    • Création et présentation d’explications conviviales : Développer des explications qui facilitent la collaboration entre les soignants et les membres de la famille.

    Considérations lorsque des données d’enfants sont impliquées

    Lorsque les données ou le bien-être des enfants sont en jeu, des considérations supplémentaires sont cruciales :

    • Les implémenteurs doivent être formés à la conception centrée sur l’enfant, une prise de conscience qui les aidera à mettre en œuvre des garanties qui tiennent compte des exigences et des droits spécifiques des enfants.
    • Compréhension des réglementations sur la protection des données, telles que le Règlement Général sur la Protection des Données (RGPD) et le code de conception adapté à l’âge de l’ICO britannique
    • Les implémenteurs doivent également faire l’objet de vérifications des antécédents (par exemple, le Disclosure and Barring Service – DBS, qui est le service britannique de vérification des antécédents) et recevoir une formation sur la manière de traiter et de travailler efficacement avec les enfants.

    Se préparer au déploiement signifie plus qu’une configuration technique ; cela signifie cultiver un écosystème de responsabilité, d’équité et de transparence.

    Comment les explications doivent-elles être construites et présentées ?

    À mesure que les systèmes d’IA deviennent plus répandus dans la prise de décision, la nécessité d’explications claires et accessibles est primordiale. Mais comment construire et fournir efficacement ces explications ?

    Explications axées sur les résultats vs. Explications axées sur les processus

    La première étape consiste à distinguer les explications axées sur les résultats et celles axées sur les processus :

    • Les explications axées sur les résultats se concentrent sur les composantes et le raisonnement derrière les résultats du modèle. Ces explications visent à rendre clair pourquoi une certaine décision a été prise. Elles doivent être accessibles, en utilisant un langage clair.
    • Les explications axées sur les processus démontrent que vous disposez de processus de gouvernance robustes et que vous avez suivi les meilleures pratiques de l’industrie lors de la conception, du développement et du déploiement du système d’IA. Cela implique de montrer que la durabilité, la sécurité, l’équité et la gestion responsable des données ont été prises en compte tout au long du cycle de vie du projet.

    Les deux types sont essentiels pour bâtir la confiance et assurer la responsabilité.

    Maximes clés de l’explicabilité de l’IA

    Il existe 4 maximes pour améliorer l’explicabilité de votre IA :

    • Transparence : Soyez transparent sur l’utilisation de l’IA/ML dans la prise de décision, y compris comment, quand et pourquoi elle est utilisée. Expliquez les décisions de manière significative, véridique, appropriée et en temps utile.
    • Responsabilité : Désignez des individus ou des équipes responsables de la supervision des exigences d’« explicabilité » des systèmes d’IA. Ayez un point de contact pour clarifier ou contester une décision et faites activement des choix sur la façon de concevoir et de déployer les modèles d’IA/ML afin qu’ils soient correctement explicables.
    • Contexte : Reconnaissez qu’il n’existe pas d’approche unique. Le contexte prend en compte plusieurs éléments interdépendants qui ont des effets sur l’explication des décisions assistées par l’IA/ML et sur l’ensemble du processus.
    • Réfléchir aux impacts : Identifiez et réduisez les effets potentiellement néfastes dans la prise de décision. Soyez éthique dans l’utilisation des objectifs afin de ne pas nuire au bien-être. De même, tenez compte du bien-être sociétal pour préserver les liens humains.

    Types d’explications pour les principes SSAFE-D

    Pour aider à construire des explications concises et claires autour des principes SSAFE-D (durabilité, sécurité, responsabilité, équité, explicabilité et gestion des données), considérez six types d’explications :

    • Explication de la justification : Le « pourquoi » derrière une décision.
    • Explication de la responsabilité : « Qui » contacter pour un examen humain. Rôles, fonctions et responsabilité du modèle IA.
    • Explication des données : « Ce qui » est détenu et autres détails des données qui ont été utilisées. Données utilisées, collecte et accès de tiers. Prétraitement des données et généralisation.
    • Explication de l’équité : Comment le biais a été atténué et les mesures prises pour assurer les mesures correctes.
    • Explication de la sécurité : Maximiser la fiabilité des performances et qu’un type de système d’IA choisi puisse être comparé à d’autres systèmes.
    • Explication de l’impact : Effets qu’un système d’aide à la décision peut avoir sur un individu ou sur la société. Rassurez le public sur le fait qu’il est bénéfique.

    Étapes pratiques pour la construction d’explications

    Un modèle de gestion de l’assurance de l’explicabilité pour les projets d’IA se concentre sur :

    • Planification de projet pour le cycle de vie de l’IA
    • Extraction et prétraitement des données
    • Sélection et formation du modèle pour une gamme de types d’explications.
    • Rapports de modèle pour des raisons facilement compréhensibles.
    • Formation des utilisateurs pour préparer les implémenteurs à déployer le système d’IA

    Considérations de haut niveau

    Il existe quatre considérations pour les équipes qui cherchent à atteindre l’explicabilité pour un public large et diversifié :

    • Contexte, impact potentiel, besoins spécifiques au domaine : Quel type d’application et de technologie utilisez-vous ?

    • Techniques interprétables standard : Trouvez les risques, les besoins et les techniques d’IA/LM spécifiques au domaine.

    • Systèmes d’IA de boîte noire : Considérations pour une pondération approfondie des risques d’impacts/risques potentiels. Envisagez des outils d’interprétabilité supplémentaires et des plans d’action pour améliorer l’explicabilité.

    • Interprétabilité et compréhension humaine : Concentrez-vous sur les capacités et les limites de la cognition humaine afin de fournir un système d’IA interprétable.

    En se concentrant sur ces considérations, les organisations peuvent construire des systèmes d’IA à la fois efficaces et compréhensibles, favorisant la confiance et la responsabilité.

    En fin de compte, la quête d’une IA explicable n’est pas seulement un défi technique, mais fondamentalement humain. En abordant avec diligence la transparence, la responsabilité, la conscience contextuelle et les impacts potentiels, en particulier pour les populations vulnérables comme les enfants, nous pouvons progresser vers un avenir où les systèmes d’IA ne sont pas seulement des outils puissants, mais aussi des partenaires de confiance pour façonner un monde plus équitable et compréhensible. Les stratégies décrites ici fournissent une feuille de route pour rendre le fonctionnement interne de l’IA plus accessible, en veillant à ce que ses décisions ne soient pas enveloppées de mystère, mais plutôt éclairées par la clarté et le dessein.

Articles

Musiciens européens unis pour défendre leurs droits face à l’IA

Plus de 30 musiciens européens ont lancé une campagne vidéo unie pour demander à la Commission européenne de préserver l'intégrité de la loi sur l'IA de l'UE. Ils exigent le droit d'être informés et...

Les agents IA : un cauchemar de sécurité pour les entreprises

L'émergence des agents d'IA dans les applications d'entreprise introduit un nouveau type de trafic réseau complexe, rendant la visibilité et la sécurité plus difficiles. Cela souligne la nécessité...

Audit de l’IA en milieu de travail : 11 étapes essentielles

Avec l'intégration croissante des outils d'intelligence artificielle générative dans les opérations quotidiennes, en particulier dans les ressources humaines, les audits d'IA deviennent de plus en...

Certification en conformité AI : un atout pour l’avenir professionnel

La certification en conformité de l'IA prépare les professionnels à comprendre et à mettre en œuvre les exigences réglementaires en constante évolution, ce qui les rend indispensables. Obtenir cette...

Régulations des IA : Les États prennent les devants face à l’inaction du Congrès

Ce mois-ci, le Sénat américain a voté pour annuler une disposition controversée dans le vaste paquet fiscal et de dépenses du président Trump, qui aurait empêché les États et les collectivités locales...

Éthique et durabilité : l’avenir de l’IA en question

Alors que la Journée de l'Appréciation de l'IA approche, les leaders de l'industrie réfléchissent à l'impact croissant de l'intelligence artificielle en Australie et dans le monde. Ils soulignent à la...

Musiciens européens dénoncent la dérive de l’AI Act de l’UE

Trente et un artistes d'Europe ont publié des vidéos pour inciter la Commission européenne à "rester fidèle à la loi sur l'IA". Ils critiquent la mise en œuvre de la loi sur l'intelligence...

New Jersey : Pionnier de l’innovation en IA

Le New Jersey a été nommé l'un des rares États à atteindre le niveau "Avancé" en matière de préparation à l'intelligence artificielle, selon un rapport de Code for America. Cette reconnaissance...

New Jersey : Pionnier de l’innovation en IA

Le New Jersey a été nommé l'un des rares États à atteindre le niveau "Avancé" en matière de préparation à l'intelligence artificielle, selon un rapport de Code for America. Cette reconnaissance...