Comprendre le droit à l’explication dans les décisions automatisées en Europe

A compass.

Comprendre le droit à l’explication et la prise de décision automatisée dans le cadre du RGPD et de la loi sur l’IA en Europe

Les systèmes de prise de décision automatisée (PDA) sont utilisés pour remplacer ou soutenir la prise de décision humaine, selon la conception du système et son utilisation. L’objectif est d’améliorer l’exactitude, l’efficacité, la cohérence et l’objectivité des décisions précédemment prises uniquement par des humains. Des exemples incluent les systèmes de recrutement automatisés, les systèmes de triage de la santé, la modération de contenu en ligne et la police prédictive.

Dans les démocraties libérales, les citoyens s’attendent à ce que des décisions importantes dans des domaines tels que l’éducation, les droits sociaux, l’emploi, la santé et la justice soient soumises à des procédures normalisées et à des processus d’appel ouverts à l’examen public. Cela reflète une compréhension fondamentale que les décideurs humains ne sont ni infaillibles ni toujours équitables, mais qu’il est possible de limiter l’impact des faiblesses humaines en établissant des normes permettant d’évaluer l’équité des décisions importantes.

Équité substantielle et procédurale

Comme pour la prise de décision humaine, qui est soumise à un examen public, les dispositions pertinentes du Règlement général sur la protection des données (RGPD) et de la loi sur l’IA visent à sauvegarder l’équité substantielle et procédurale des décisions automatisées. En termes larges, l’équité substantielle implique des considérations telles que la justice distributive, la non-discrimination, la proportionnalité, l’exactitude et la fiabilité, tandis que l’équité procédurale exige (au moins) la transparence, le respect des droits, la cohérence, la supervision humaine et le droit à une explication.

Des exemples récents de systèmes d’IA qui n’ont pas respecté ces exigences incluent des systèmes de détection de fraude sociale à Amsterdam et au Royaume-Uni, des familles à tort signalées pour des enquêtes sur des abus d’enfants au Japon, des résidents à faible revenu privés de subventions alimentaires dans l’État indien du Telangana, et des biais raciaux dans les outils d’IA générative utilisés pour aider à l’embauche.

Droit à l’explication

Étant donné les préoccupations légitimes concernant l’exactitude, la fiabilité, la robustesse et l’équité des PDA, des dispositions sont prévues pour le droit de donner un consentement explicite à être soumis à des décisions automatisées (RGPD art. 22), d’être informé de l’utilisation de la PDA (RGPD art. 13, 14 et 15 et loi sur l’IA art. 26), d’intervention ou de supervision humaine (RGPD art. 22 et loi sur l’IA art. 86), et du droit à une explication (RGPD art. 13, 14 et 15 et loi sur l’IA art. 86).

Dans le RGPD, le droit à l’explication s’applique aux décisions fondées uniquement sur un traitement automatisé qui produisent des effets juridiques ou des effets significatifs similaires concernant une personne physique (art. 22). Le droit à une explication de telles décisions est détaillé dans les articles 13 à 15, qui exigent la fourniture d’informations « significatives sur la logique impliquée, ainsi que sur la signification et les conséquences envisagées d’un tel traitement ».

Dans la loi sur l’IA (art. 86), la formulation pertinente fait référence au « droit d’obtenir du déployeur des explications claires et significatives sur le rôle du système d’IA dans la procédure de prise de décision et les principaux éléments de la décision prise ».

Défis techniques et éthiques

Il existe beaucoup de débats parmi les experts juridiques et politiques sur des questions telles que l’interprétation de l’exigence pour des « informations significatives sur la logique impliquée » dans le RGPD, le type d’explication requis en vertu de la loi sur l’IA, ainsi que les objectifs que ces explications sont censées servir. Ce qui est souvent négligé dans ces débats est la difficulté technique de fournir des explications pour les sorties des modèles utilisés dans les PDA, ainsi que l’inadéquation de déployer des PDA prédictives dans des domaines où l’agence humaine est un facteur.

Pourquoi la prédiction ne suffit pas

Les prédictions des « résultats de vie » sont à la fois peu fiables et éthiquement problématiques. Par « résultats de vie », on entend des phénomènes tels que la probabilité qu’un couple demande le divorce ou le revenu futur d’un individu. Dans tous ces cas, la tentative de prédiction devient un facteur dans le système que nous essayons de prévoir, et la seule façon d’éviter cela est de priver les individus concernés de leur capacité d’agir autrement.

La solution consiste à se concentrer sur la compréhension des facteurs sociaux qui mènent à des résultats de vie, afin que les individus et les agences concernées puissent utiliser cette connaissance pour forger un avenir préférable. Cela constitue un objectif plus approprié pour les sociétés libérales et un meilleur cas d’utilisation pour des modèles d’IA plus précis mais non interprétables.

Ces modèles plus puissants pourraient également être reconfigurés pour soutenir les décideurs humains. Au lieu de laisser les décideurs choisir d’accepter ou de rejeter une prédiction automatisée, des systèmes de soutien automatisés pourraient être conçus pour aider les décideurs humains à devenir plus efficaces et cohérents dans leurs délibérations.

Conclusion

Les implications pour le RGPD, la loi sur l’IA et d’autres réglementations similaires sont que les dispositions conçues pour sauvegarder les PDA devraient limiter les décisions entièrement automatisées à des modèles interprétables, dont la sortie devrait inclure une explication claire de la décision. Les décisions qui touchent aux circonstances où l’agence humaine est un facteur ne devraient pas être automatisées. Faute de quoi, de nombreuses personnes seront injustement ciblées ou privées d’accès à des biens publics sans recours aux mêmes garanties dont se sont traditionnellement prévalues les démocraties libérales.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...