Éthique de l’IA et reconnaissance faciale : enjeux et régulations

A set of gears illustrating the interconnectedness of law and technology.

La règle de droit et l’éthique de l’IA : Focus sur les technologies de reconnaissance faciale (TRF)

Les systèmes d’IA, bien qu’ils aient prouvé leur utilité pour l’humanité de plusieurs manières, posent inévitablement des défis moraux, juridiques et éthiques complexes. Le 12 mai 2023, un radiodiffuseur local a rapporté que « la Force de police de la Jamaïque mettra bientôt en œuvre des technologies de reconnaissance faciale qui les aideront à appréhender des personnes indésirables ». Les technologies de reconnaissance faciale (TRF) sont décrites comme « un ensemble d’outils numériques utilisés pour effectuer des tâches sur des images ou des vidéos de visages humains… » (Buolamwini et al., 2020, 2). Bien que les TRF soient largement déployées dans le domaine commercial, leur utilisation dans le cadre de l’application de la loi soulève de graves préoccupations concernant le biais, la discrimination et le respect des droits humains.

Dangers d’un déploiement non régulé des TRF

Malgré leur utilisation généralisée, les TRF sont classées comme des systèmes d’IA « à haut risque » en raison des biais algorithmiques qui leur sont inhérents. Plus précisément, les TRF identifient de manière incorrecte les personnes de couleur et les femmes à des taux significativement plus élevés que ceux des hommes blancs (Buolamwini et al., 2018). Une étude de 2020 menée par le NIST a également révélé que les taux de mauvaise identification étaient encore plus élevés lorsque les sujets portaient des masques faciaux (Ngan et al., 2020, 1 & 7).

Dans le contexte de l’application de la loi, ces erreurs d’identification ont conduit à des violations des droits humains fondamentaux. En décembre 2020, Nijeer Parks, un homme afro-américain, a été arrêté à tort et détenu pendant 10 jours après avoir été identifié à tort comme un suspect de vol à l’étalage. Plus récemment, en février 2023, une femme afro-américaine enceinte de huit mois a été arrêtée à tort pour vol de voiture et interrogée pendant 11 heures suite à une correspondance erronée avec la TRF. Selon le New York Times, elle était « la sixième personne à signaler avoir été faussement accusée d’un crime à la suite de la technologie de reconnaissance faciale ». Ces cas réels illustrent les dangers de déployer des TRF dans le cadre de l’application de la loi sans surveillance réglementaire.

De plus, le déploiement non régulé des TRF soulève des préoccupations concernant la vie privée informationnelle, car les données biométriques sensibles qu’elles collectent, traitent et stockent peuvent être utilisées à des fins de surveillance de masse. Compte tenu de ces risques significatifs, il devient crucial de réglementer les TRF de manière à équilibrer l’innovation pilotée par l’IA avec le respect des droits humains fondamentaux et de la règle de droit.

Interconnexion entre la règle de droit, l’éthique de l’IA et les TRF

À l’ère de la quatrième révolution industrielle, les systèmes d’IA non régulés comme les TRF peuvent menacer les droits humains fondamentaux et saper la règle de droit— un principe démocratique visant à prévenir l’abus de pouvoir exécutif en veillant à ce que les actions de l’État soient légales, responsables, transparentes, équitables et non discriminatoires. Dans l’affaire Edward Bridges contre le chef de la police du South Wales et autres [2020] EWHC Civ 1058, la Cour d’appel a déterminé que l’utilisation des TRF automatisées par la police du South Wales dans le cadre d’un projet de surveillance, qui facilitait la capture de données biométriques faciales sensibles d’environ 500 000 personnes sans leur consentement, violait les lois sur la protection des données, les lois sur la vie privée et les lois sur l’égalité, y compris l’Article 8 de la Convention européenne des droits de l’homme (CEDH).

Compte tenu des implications réelles du déploiement non régulé des TRF, le concept d’éthique de l’IA prend une importance considérable en tant que « réflexion normative systématique… qui peut guider les sociétés dans la gestion responsable des impacts connus et inconnus des technologies de l’IA… » (Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle, 2021). La récente promulgation par l’Union européenne de la Loi sur l’intelligence artificielle (AI Act) 2024, décrite par la Commission européenne comme « le premier cadre juridique complet sur l’IA au monde », établit des normes juridiques contraignantes visant à garantir que les systèmes d’IA « très puissants et impactants » « respectent les droits fondamentaux, la sécurité et les principes éthiques ». Ensuite, il y a la Déclaration de Toronto (2018), qui, bien qu’elle ne bénéficie pas de la force de la loi, vise radicalement à encourager l’acceptation des cadres de droits humains comme une « composante fondamentale » de l’éthique de l’IA. Cette compréhension est particulièrement précieuse pour les discussions autour de la réglementation des TRF dans les contextes de police où les droits humains fondamentaux sont plus vulnérables aux violations.

Conceptuellement, la règle de droit et l’éthique de l’IA convergent autour de leur adhésion partagée aux principes de responsabilité, équité, transparence, égalité et non-discrimination comme composants constitutifs essentiels. Cela est significatif car une compréhension de ces points de convergence peut aider à façonner des approches éthiques pour réguler les TRF afin qu’elles soient déployées de manière respectueuse des droits qui soutiennent la règle de droit. L’éthique de l’IA, ancrée dans des normes universelles des droits humains, fournira un guide moral pour le déploiement responsable des TRF, qui sera ensuite donné force de loi par l’adoption de législations. Par conséquent, embrasser cette convergence peut mieux positionner les législateurs et autres parties prenantes pour défendre des cadres de gouvernance de l’IA qui respectent les droits et sont éthiquement solides.

Équilibrer l’innovation pilotée par l’IA avec le respect des droits humains fondamentaux et de la règle de droit

Le plan de la JCF de déployer les TRF reflète un désir louable de moderniser les stratégies de lutte contre la criminalité. Cependant, compte tenu des préoccupations importantes soulevées, la Jamaïque devrait imposer un moratoire sur leur déploiement en attendant une réglementation légale, comme cela a été fait dans des juridictions technologiquement plus avancées, telles que les États-Unis. Tout cadre juridique pour réglementer les TRF devrait être informé par une éthique de l’IA centrée sur les droits humains visant à garantir qu’elles soient déployées de manière respectueuse des droits qui soutiennent la règle de droit. Adopter cette approche s’accorde avec l’impératif d’assurer que le respect des droits humains fondamentaux et de la règle de droit ne soit pas sacrifié sur l’autel de l’innovation pilotée par l’IA. Une engagement significatif avec le public jamaïcain doit également être priorisé, car cela améliorera la transparence et inspirera une confiance publique accrue.

En dernière analyse, une gouvernance responsable de l’IA nécessite une approche qui reconnaît et intègre la convergence entre l’éthique de l’IA centrée sur les droits humains et la règle de droit. En embrassant cette convergence entre l’éthique de l’IA et la règle de droit, les législateurs et autres parties prenantes seront mieux positionnés pour développer des cadres réglementaires pour les TRF qui respectent les droits humains fondamentaux et soutiennent la règle de droit sans étouffer l’innovation pilotée par l’IA.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...