Comprendre le droit à l’explication dans les décisions automatisées en Europe

A compass.

Comprendre le droit à l’explication et la prise de décision automatisée dans le cadre du RGPD et de la loi sur l’IA en Europe

Les systèmes de prise de décision automatisée (PDA) sont utilisés pour remplacer ou soutenir la prise de décision humaine, selon la conception du système et son utilisation. L’objectif est d’améliorer l’exactitude, l’efficacité, la cohérence et l’objectivité des décisions précédemment prises uniquement par des humains. Des exemples incluent les systèmes de recrutement automatisés, les systèmes de triage de la santé, la modération de contenu en ligne et la police prédictive.

Dans les démocraties libérales, les citoyens s’attendent à ce que des décisions importantes dans des domaines tels que l’éducation, les droits sociaux, l’emploi, la santé et la justice soient soumises à des procédures normalisées et à des processus d’appel ouverts à l’examen public. Cela reflète une compréhension fondamentale que les décideurs humains ne sont ni infaillibles ni toujours équitables, mais qu’il est possible de limiter l’impact des faiblesses humaines en établissant des normes permettant d’évaluer l’équité des décisions importantes.

Équité substantielle et procédurale

Comme pour la prise de décision humaine, qui est soumise à un examen public, les dispositions pertinentes du Règlement général sur la protection des données (RGPD) et de la loi sur l’IA visent à sauvegarder l’équité substantielle et procédurale des décisions automatisées. En termes larges, l’équité substantielle implique des considérations telles que la justice distributive, la non-discrimination, la proportionnalité, l’exactitude et la fiabilité, tandis que l’équité procédurale exige (au moins) la transparence, le respect des droits, la cohérence, la supervision humaine et le droit à une explication.

Des exemples récents de systèmes d’IA qui n’ont pas respecté ces exigences incluent des systèmes de détection de fraude sociale à Amsterdam et au Royaume-Uni, des familles à tort signalées pour des enquêtes sur des abus d’enfants au Japon, des résidents à faible revenu privés de subventions alimentaires dans l’État indien du Telangana, et des biais raciaux dans les outils d’IA générative utilisés pour aider à l’embauche.

Droit à l’explication

Étant donné les préoccupations légitimes concernant l’exactitude, la fiabilité, la robustesse et l’équité des PDA, des dispositions sont prévues pour le droit de donner un consentement explicite à être soumis à des décisions automatisées (RGPD art. 22), d’être informé de l’utilisation de la PDA (RGPD art. 13, 14 et 15 et loi sur l’IA art. 26), d’intervention ou de supervision humaine (RGPD art. 22 et loi sur l’IA art. 86), et du droit à une explication (RGPD art. 13, 14 et 15 et loi sur l’IA art. 86).

Dans le RGPD, le droit à l’explication s’applique aux décisions fondées uniquement sur un traitement automatisé qui produisent des effets juridiques ou des effets significatifs similaires concernant une personne physique (art. 22). Le droit à une explication de telles décisions est détaillé dans les articles 13 à 15, qui exigent la fourniture d’informations « significatives sur la logique impliquée, ainsi que sur la signification et les conséquences envisagées d’un tel traitement ».

Dans la loi sur l’IA (art. 86), la formulation pertinente fait référence au « droit d’obtenir du déployeur des explications claires et significatives sur le rôle du système d’IA dans la procédure de prise de décision et les principaux éléments de la décision prise ».

Défis techniques et éthiques

Il existe beaucoup de débats parmi les experts juridiques et politiques sur des questions telles que l’interprétation de l’exigence pour des « informations significatives sur la logique impliquée » dans le RGPD, le type d’explication requis en vertu de la loi sur l’IA, ainsi que les objectifs que ces explications sont censées servir. Ce qui est souvent négligé dans ces débats est la difficulté technique de fournir des explications pour les sorties des modèles utilisés dans les PDA, ainsi que l’inadéquation de déployer des PDA prédictives dans des domaines où l’agence humaine est un facteur.

Pourquoi la prédiction ne suffit pas

Les prédictions des « résultats de vie » sont à la fois peu fiables et éthiquement problématiques. Par « résultats de vie », on entend des phénomènes tels que la probabilité qu’un couple demande le divorce ou le revenu futur d’un individu. Dans tous ces cas, la tentative de prédiction devient un facteur dans le système que nous essayons de prévoir, et la seule façon d’éviter cela est de priver les individus concernés de leur capacité d’agir autrement.

La solution consiste à se concentrer sur la compréhension des facteurs sociaux qui mènent à des résultats de vie, afin que les individus et les agences concernées puissent utiliser cette connaissance pour forger un avenir préférable. Cela constitue un objectif plus approprié pour les sociétés libérales et un meilleur cas d’utilisation pour des modèles d’IA plus précis mais non interprétables.

Ces modèles plus puissants pourraient également être reconfigurés pour soutenir les décideurs humains. Au lieu de laisser les décideurs choisir d’accepter ou de rejeter une prédiction automatisée, des systèmes de soutien automatisés pourraient être conçus pour aider les décideurs humains à devenir plus efficaces et cohérents dans leurs délibérations.

Conclusion

Les implications pour le RGPD, la loi sur l’IA et d’autres réglementations similaires sont que les dispositions conçues pour sauvegarder les PDA devraient limiter les décisions entièrement automatisées à des modèles interprétables, dont la sortie devrait inclure une explication claire de la décision. Les décisions qui touchent aux circonstances où l’agence humaine est un facteur ne devraient pas être automatisées. Faute de quoi, de nombreuses personnes seront injustement ciblées ou privées d’accès à des biens publics sans recours aux mêmes garanties dont se sont traditionnellement prévalues les démocraties libérales.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...