Lutte contre les biais dans l’intelligence artificielle

« Inacceptable » : Markey réintroduit une législation pour lutter contre les biais dans l’intelligence artificielle

Le sénateur américain Ed Markey du Massachusetts et d’autres membres du Congrès réintroduisent la Loi sur les droits civils en matière d’intelligence artificielle, un projet de loi précédemment introduit l’année dernière qui vise à garantir que les algorithmes alimentant les outils d’IA, tels que ChatGPT, ne reflètent pas, ne perpétuent pas et n’aggravent pas les biais préexistants.

Provisions clés du projet de loi

Le projet de loi comporte ce que Markey décrit comme trois provisions clés. Il interdirait aux entreprises d’offrir, de concéder sous licence ou d’utiliser des algorithmes qui discriminent sur la base de caractéristiques protégées, telles que la race ou le sexe. Il exigerait également que les entreprises d’IA effectuent des audits indépendants pour identifier et atténuer la discrimination algorithmique. De plus, il donnerait aux individus le droit de faire appel d’une décision fondée sur l’IA à un humain, et habiliterait la Federal Trade Commission, les procureurs généraux des États et des particuliers à faire respecter cette partie de la loi.

Exemples de biais dans l’IA

Lors d’une conférence de presse mardi, Markey, qui est le principal sponsor sénatorial du projet de loi, a cité plusieurs exemples justifiant la grande préoccupation concernant l’incorporation et la reproduction des biais préexistants par l’IA.

Un rapport de 2019 a révélé que, en partie à cause des algorithmes biaisés d’approbation de prêts hypothécaires, les prêteurs étaient 80 % plus susceptibles de rejeter les demandes des candidats noirs par rapport à des candidats blancs similaires. Une étude de 2022 a montré que les modèles d’IA utilisés pour prédire les maladies du foie étaient deux fois plus susceptibles de manquer la maladie chez les femmes que chez les hommes. Une étude de 2025 a révélé que les outils de filtrage de CV par IA sélectionnaient presque jamais des noms masculins noirs pour poursuivre le processus d’embauche. Ceci est inacceptable.

Réactions et implications sociétales

Le révérend Chris Hope, qui travaille avec Markey sur le projet de loi et est impliqué dans l’organisation communautaire et l’éducation autour de l’IA, a récemment déclaré : « L’IA elle-même est neutre, et les problèmes viennent de ceux qui ont accès à ces outils et de la manière dont ils sont utilisés. » Il a souligné que les lois sur les droits civils sont là pour protéger les gens, et non seulement les profits.

Markey a également noté qu’actuellement, l’industrie de l’IA et ses partisans poussent pour une interdiction à long terme de la régulation de l’IA au niveau des États. Une disposition incluse dans la version de la Chambre du One Big Beautiful Bill interdisait une telle régulation pendant une décennie, mais a été supprimée par le Sénat lors d’un vote bipartite de 99-1.

Appel à l’action

La procureure générale du Massachusetts, Andrea Joy Campbell, faisait partie d’un groupe bipartite de 36 procureurs généraux qui ont récemment écrit aux dirigeants du Congrès pour les inciter à ne pas mettre en œuvre une interdiction de la régulation au niveau des États.

Pour l’instant, l’appétit pour réguler l’IA dans le Massachusetts semble mitigé. Une législation récente visant à créer une nouvelle commission d’État pour identifier les utilisations de l’IA dans le gouvernement d’État et déterminer les prochaines étapes réglementaires n’est jamais devenue loi.

La présidente et PDG de la Leadership Conference on Civil and Human Rights, Maya Wiley, a qualifié le projet de loi de « pièce législative historique » qui est désespérément nécessaire. Elle a souligné que l’innovation ne doit pas être nuisible ni discriminatoire, et que les lois sur les droits civils doivent protéger tout le monde.

« N’oubliez pas que lorsque nous parlons de droits civils, cela protège chaque personne », a-t-elle ajouté.

More Insights

Revolutionizing Drone Regulations: The EU AI Act Explained

The EU AI Act represents a significant regulatory framework that aims to address the challenges posed by artificial intelligence technologies in various sectors, including the burgeoning field of...

Embracing Responsible AI to Mitigate Legal Risks

Businesses must prioritize responsible AI as a frontline defense against legal, financial, and reputational risks, particularly in understanding data lineage. Ignoring these responsibilities could...

AI Governance: Addressing the Shadow IT Challenge

AI tools are rapidly transforming workplace operations, but much of their adoption is happening without proper oversight, leading to the rise of shadow AI as a security concern. Organizations need to...

EU Delays AI Act Implementation to 2027 Amid Industry Pressure

The EU plans to delay the enforcement of high-risk duties in the AI Act until late 2027, allowing companies more time to comply with the regulations. However, this move has drawn criticism from rights...

White House Challenges GAIN AI Act Amid Nvidia Export Controversy

The White House is pushing back against the bipartisan GAIN AI Act, which aims to prioritize U.S. companies in acquiring advanced AI chips. This resistance reflects a strategic decision to maintain...

Experts Warn of EU AI Act’s Impact on Medtech Innovation

Experts at the 2025 European Digital Technology and Software conference expressed concerns that the EU AI Act could hinder the launch of new medtech products in the European market. They emphasized...

Ethical AI: Transforming Compliance into Innovation

Enterprises are racing to innovate with artificial intelligence, often without the proper compliance measures in place. By embedding privacy and ethics into the development lifecycle, organizations...

AI Hiring Compliance Risks Uncovered

Artificial intelligence is reshaping recruitment, with the percentage of HR leaders using generative AI increasing from 19% to 61% between 2023 and 2025. However, this efficiency comes with legal...

AI in Australian Government: Balancing Innovation and Security Risks

The Australian government is considering using AI to draft sensitive cabinet submissions as part of a broader strategy to implement AI across the public service. While some public servants report...