Les risques de l’IA financière : discrimination et exploitation des consommateurs
Une récente mise en garde d’un groupe de défense souligne que l’IA financière prend des décisions cruciales concernant l’accès aux prêts, le coût des assurances et l’ouverture de comptes bancaires, souvent sans que les consommateurs en aient conscience. L’automatisation croissante des services financiers soulève des préoccupations majeures quant à l’équité, la transparence et la confiance publique.
Une adoption généralisée mais risquée
L’IA est de plus en plus utilisée dans le secteur des services financiers de détail, englobant des processus tels que les évaluations de crédit, le tarification des assurances et le conseil en investissement. Bien que cette technologie offre des gains d’efficacité et un service plus rapide, elle comporte également des risques significatifs si elle n’est pas encadrée.
Les préoccupations majeures
Les experts identifient déjà plusieurs risques concrets liés à l’usage de l’IA dans les décisions financières :
- Exclusion financière
- Vente abusive
- Optimisation des prix exploitant la volonté de payer des consommateurs
- Refus injustifié de réclamations d’assurance
- Opacité des résultats des systèmes d’IA, rendant la réparation presque impossible
Ces problèmes ne sont pas théoriques ; ils se produisent déjà dans la pratique.
Transparence et réglementation
Les consommateurs ne sont souvent pas correctement informés lorsque l’IA est impliquée dans les décisions concernant les prêts, les assurances ou l’accès aux comptes. Les règles sectorielles actuelles ne requièrent pas toujours une divulgation complète, laissant de nombreux utilisateurs dans l’ignorance quant à l’utilisation de leurs données et aux mécanismes de contestation des décisions.
Un cadre réglementaire inadapté
La législation actuelle en matière financière dans l’UE, qui était en grande partie rédigée avant l’émergence de l’IA, ne répond pas aux besoins spécifiques de cette technologie. Par exemple, des lois telles que le GDPR et le Mifid II ne couvrent pas suffisamment les risques uniques posés par l’IA. De plus, seul un nombre limité d’applications d’IA sont classées comme « à haut risque » dans le cadre de la Loi sur l’IA.
Appels à une réforme urgente
Les experts appellent à élargir la liste des applications considérées comme à haut risque pour inclure tous les services financiers de détail, et pas uniquement ceux liés à la notation de crédit ou à l’assurance vie/santé. Cela inclurait également le conseil en investissement et les procédures de connaissance du client (KYC).
Mesures de protection des consommateurs
Pour protéger les consommateurs des décisions injustes ou opaques prises par l’IA, plusieurs mesures de sécurité sont jugées essentielles :
- Une surveillance humaine
- Des règles claires concernant les données pouvant être utilisées
- Un droit à la révision humaine des décisions prises par l’IA
Il est également recommandé d’interdire les pratiques d’optimisation des prix et de veiller à ce que les exclusions d’accès aux services essentiels soient évitées.
Responsabilité et redressement
Les entreprises financières qui déploient ces systèmes d’IA doivent être tenues responsables. Pour que cette responsabilité soit significative, il est nécessaire de mettre en place un régime de responsabilité harmonisé au sein de l’UE, qui inverse le fardeau de la preuve, permettant ainsi aux consommateurs d’accéder à des recours en cas de préjudice.
Conclusions et recommandations
Pour garantir que l’IA dans le secteur financier serve l’intérêt public, il est crucial de :
- Classer tous les systèmes financiers d’IA comme à haut risque sous la Loi sur l’IA
- Mettre à jour les lois sectorielles comme le Mifid II et la Directive sur la distribution des assurances (IDD) pour traiter les risques spécifiques à l’IA
- Introduire un régime de responsabilité au niveau de l’UE adapté à l’IA
Il est également essentiel que les obligations de la Loi sur l’IA pour les systèmes à haut risque soient appliquées en temps voulu. Des retards ou des assouplissements des règles exposeraient davantage les consommateurs à des risques alors que l’adoption de l’IA s’accélère.