La règle de droit et l’éthique de l’IA : Focus sur les technologies de reconnaissance faciale (TRF)
Les systèmes d’IA, bien qu’ils aient prouvé leur utilité pour l’humanité de plusieurs manières, posent inévitablement des défis moraux, juridiques et éthiques complexes. Le 12 mai 2023, un radiodiffuseur local a rapporté que « la Force de police de la Jamaïque mettra bientôt en œuvre des technologies de reconnaissance faciale qui les aideront à appréhender des personnes indésirables ». Les technologies de reconnaissance faciale (TRF) sont décrites comme « un ensemble d’outils numériques utilisés pour effectuer des tâches sur des images ou des vidéos de visages humains… » (Buolamwini et al., 2020, 2). Bien que les TRF soient largement déployées dans le domaine commercial, leur utilisation dans le cadre de l’application de la loi soulève de graves préoccupations concernant le biais, la discrimination et le respect des droits humains.
Dangers d’un déploiement non régulé des TRF
Malgré leur utilisation généralisée, les TRF sont classées comme des systèmes d’IA « à haut risque » en raison des biais algorithmiques qui leur sont inhérents. Plus précisément, les TRF identifient de manière incorrecte les personnes de couleur et les femmes à des taux significativement plus élevés que ceux des hommes blancs (Buolamwini et al., 2018). Une étude de 2020 menée par le NIST a également révélé que les taux de mauvaise identification étaient encore plus élevés lorsque les sujets portaient des masques faciaux (Ngan et al., 2020, 1 & 7).
Dans le contexte de l’application de la loi, ces erreurs d’identification ont conduit à des violations des droits humains fondamentaux. En décembre 2020, Nijeer Parks, un homme afro-américain, a été arrêté à tort et détenu pendant 10 jours après avoir été identifié à tort comme un suspect de vol à l’étalage. Plus récemment, en février 2023, une femme afro-américaine enceinte de huit mois a été arrêtée à tort pour vol de voiture et interrogée pendant 11 heures suite à une correspondance erronée avec la TRF. Selon le New York Times, elle était « la sixième personne à signaler avoir été faussement accusée d’un crime à la suite de la technologie de reconnaissance faciale ». Ces cas réels illustrent les dangers de déployer des TRF dans le cadre de l’application de la loi sans surveillance réglementaire.
De plus, le déploiement non régulé des TRF soulève des préoccupations concernant la vie privée informationnelle, car les données biométriques sensibles qu’elles collectent, traitent et stockent peuvent être utilisées à des fins de surveillance de masse. Compte tenu de ces risques significatifs, il devient crucial de réglementer les TRF de manière à équilibrer l’innovation pilotée par l’IA avec le respect des droits humains fondamentaux et de la règle de droit.
Interconnexion entre la règle de droit, l’éthique de l’IA et les TRF
À l’ère de la quatrième révolution industrielle, les systèmes d’IA non régulés comme les TRF peuvent menacer les droits humains fondamentaux et saper la règle de droit— un principe démocratique visant à prévenir l’abus de pouvoir exécutif en veillant à ce que les actions de l’État soient légales, responsables, transparentes, équitables et non discriminatoires. Dans l’affaire Edward Bridges contre le chef de la police du South Wales et autres [2020] EWHC Civ 1058, la Cour d’appel a déterminé que l’utilisation des TRF automatisées par la police du South Wales dans le cadre d’un projet de surveillance, qui facilitait la capture de données biométriques faciales sensibles d’environ 500 000 personnes sans leur consentement, violait les lois sur la protection des données, les lois sur la vie privée et les lois sur l’égalité, y compris l’Article 8 de la Convention européenne des droits de l’homme (CEDH).
Compte tenu des implications réelles du déploiement non régulé des TRF, le concept d’éthique de l’IA prend une importance considérable en tant que « réflexion normative systématique… qui peut guider les sociétés dans la gestion responsable des impacts connus et inconnus des technologies de l’IA… » (Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, 2021). La récente promulgation par l’Union européenne de la Loi sur l’intelligence artificielle (AI Act) 2024, décrite par la Commission européenne comme « le premier cadre juridique complet sur l’IA au monde », établit des normes juridiques contraignantes visant à garantir que les systèmes d’IA « très puissants et impactants » « respectent les droits fondamentaux, la sécurité et les principes éthiques ». Ensuite, il y a la Déclaration de Toronto (2018), qui, bien qu’elle ne bénéficie pas de la force de la loi, vise radicalement à encourager l’acceptation des cadres de droits humains comme une « composante fondamentale » de l’éthique de l’IA. Cette compréhension est particulièrement précieuse pour les discussions autour de la réglementation des TRF dans les contextes de police où les droits humains fondamentaux sont plus vulnérables aux violations.
Conceptuellement, la règle de droit et l’éthique de l’IA convergent autour de leur adhésion partagée aux principes de responsabilité, équité, transparence, égalité et non-discrimination comme composants constitutifs essentiels. Cela est significatif car une compréhension de ces points de convergence peut aider à façonner des approches éthiques pour réguler les TRF afin qu’elles soient déployées de manière respectueuse des droits qui soutiennent la règle de droit. L’éthique de l’IA, ancrée dans des normes universelles des droits humains, fournira un guide moral pour le déploiement responsable des TRF, qui sera ensuite donné force de loi par l’adoption de législations. Par conséquent, embrasser cette convergence peut mieux positionner les législateurs et autres parties prenantes pour défendre des cadres de gouvernance de l’IA qui respectent les droits et sont éthiquement solides.
Équilibrer l’innovation pilotée par l’IA avec le respect des droits humains fondamentaux et de la règle de droit
Le plan de la JCF de déployer les TRF reflète un désir louable de moderniser les stratégies de lutte contre la criminalité. Cependant, compte tenu des préoccupations importantes soulevées, la Jamaïque devrait imposer un moratoire sur leur déploiement en attendant une réglementation légale, comme cela a été fait dans des juridictions technologiquement plus avancées, telles que les États-Unis. Tout cadre juridique pour réglementer les TRF devrait être informé par une éthique de l’IA centrée sur les droits humains visant à garantir qu’elles soient déployées de manière respectueuse des droits qui soutiennent la règle de droit. Adopter cette approche s’accorde avec l’impératif d’assurer que le respect des droits humains fondamentaux et de la règle de droit ne soit pas sacrifié sur l’autel de l’innovation pilotée par l’IA. Une engagement significatif avec le public jamaïcain doit également être priorisé, car cela améliorera la transparence et inspirera une confiance publique accrue.
En dernière analyse, une gouvernance responsable de l’IA nécessite une approche qui reconnaît et intègre la convergence entre l’éthique de l’IA centrée sur les droits humains et la règle de droit. En embrassant cette convergence entre l’éthique de l’IA et la règle de droit, les législateurs et autres parties prenantes seront mieux positionnés pour développer des cadres réglementaires pour les TRF qui respectent les droits humains fondamentaux et soutiennent la règle de droit sans étouffer l’innovation pilotée par l’IA.