Responsabilités et risques : l’impact de l’AI Act sur les systèmes à haut risque

A safety helmet

Le Règlement sur l’Intelligence Artificielle de l’Union Européenne : Responsabilités et Systèmes à Haut Risque

Le règlement de l’Union Européenne sur l’Intelligence Artificielle (IA) s’attaque aux systèmes à haut risque en allouant des responsabilités aux acteurs désignés tout au long de la chaîne de valeur des systèmes. Cet article examine ces allocations de responsabilités et souligne certaines limitations notables qui pourraient poser des risques pour les individus.

Introduction

Adopté en 2024, le règlement sur l’IA vise à promouvoir l’utilisation d’une IA centrée sur l’humain et digne de confiance, tout en protégeant la santé, la sécurité et les droits fondamentaux des personnes. Ce règlement adopte une approche basée sur le risque, classant les systèmes d’IA en plusieurs catégories : risque inacceptable, haut risque, risque limité et risque faible, en plus de dispositions spécifiques pour les modèles d’IA à usage général.

Cet article se concentre sur les systèmes d’IA à haut risque et examine si le règlement alloue adéquatement les responsabilités tout au long du cycle de vie des systèmes. Nous commençons par définir ce que sont les systèmes d’IA à haut risque et identifier les acteurs clés à chaque étape de la chaîne de valeur.

Définition et Acteurs Clés des Systèmes d’IA à Haut Risque

Selon l’Article 6 du règlement, un système d’IA est classé comme haut risque dans deux cas : (1) lorsque le système est destiné à être utilisé comme un composant de sécurité d’un produit, ou d’un produit couvert par les lois de l’UE dans l’Annexe I du règlement et nécessite une évaluation de conformité par un tiers (par exemple, dispositifs médicaux in vitro, ascenseurs, jouets, etc.) ; ou (2) lorsque le système est mentionné dans l’Annexe III, qui traite principalement des préoccupations relatives aux droits fondamentaux.

Cependant, le paragraphe 3 de l’Article 6 fournit une exemption à cette catégorisation. Il précise qu’un système d’IA mentionné dans l’Annexe III n’est pas considéré comme haut risque lorsqu’il est destiné à : (a) exécuter une tâche procédurale étroite ; (b) améliorer le résultat d’une activité humaine déjà réalisée ; (c) détecter des schémas de prise de décision ou des déviations, sans être destiné à influencer l’évaluation humaine précédente sans examen humain approprié ; ou (d) effectuer une tâche préparatoire à l’évaluation pertinente des cas d’utilisation sous l’Annexe III.

Un système d’IA est exempté s’il ne présente pas un risque significatif de préjudice à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques. Dans ce cas, les fournisseurs des systèmes doivent documenter leur évaluation avant que le système ne soit mis sur le marché ou mis en service, et s’enregistrer ainsi que le système dans une nouvelle base de données de l’UE.

Limitations du Règlement

Bien que le règlement favorise la transparence, la conformité et la responsabilité, il présente des limitations significatives qui méritent d’être examinées. La structure linéaire de l’allocation des responsabilités peut ne pas suffire à traiter la complexité, l’opacité et l’autonomie des systèmes d’IA, qui introduisent des problèmes de responsabilité particuliers que le règlement ne traite pas entièrement.

Il est donc essentiel de raffiner davantage cette flexibilité pour garantir une meilleure protection des droits fondamentaux, de la santé et de la sécurité des individus. La nécessité de resserrer cette flexibilité est d’autant plus cruciale dans un paysage technologique en constante évolution, où les systèmes d’IA continuent de jouer un rôle de plus en plus important dans la société.

Articles

La loi sur l’intelligence artificielle : enjeux et perspectives

La loi sur l'intelligence artificielle de l'UE classe l'IA en fonction des risques, interdisant les systèmes à risque inacceptable et réglementant ceux à haut risque. Les fournisseurs de systèmes d'IA...

Conflit de transparence : Les entreprises d’IA face aux créateurs en Europe

Les entreprises technologiques, dont OpenAI, s'opposent à l'obligation de transparence dans le cadre de la loi sur l'IA de l'Union européenne, qui exige que les entreprises informent les titulaires de...

L’illusion de l’IA : un piège marketing ?

L'AI-washing est une tactique de marketing trompeuse où les entreprises exagèrent le rôle de l'IA dans la promotion de leurs produits ou services. Les régulateurs et les consommateurs doivent aborder...

Révolution juridique : Comprendre la loi sur l’intelligence artificielle

Le 12 juillet 2024, l'UE a publié le règlement (UE) 2024/1689, connu sous le nom de loi sur l'intelligence artificielle (la "Loi sur l'IA"). Cette loi marque le premier cadre juridique complet au...

Les garde-fous de l’IA : garantir la conformité et l’éthique dans un monde globalisé

Les entreprises doivent mettre en place des garde-fous pour leurs systèmes d'IA afin de garantir la conformité et de réduire les risques réglementaires. Cela est particulièrement crucial dans des...

Protection des droits à l’image à l’ère de l’IA en Arkansas

L'Arkansas a pris des mesures proactives en adoptant la loi HB1071, qui vise à protéger les individus contre l'utilisation non autorisée de leur image et de leur voix générées par l'IA à des fins...

Résistance des géants technologiques face à l’Acte sur l’IA de l’UE

L'Acte sur l'IA de l'UE est considéré comme l'ensemble de réglementations le plus complet sur l'intelligence artificielle au monde, mais il reste un ensemble de principes généraux sans détails pour sa...

Réglementation de l’IA : enjeux et défis à Hartford

Le président de l'AFL-CIO de l'État, Ed Hawthorne, a déclaré lors d'une audience publique que la réglementation de l'industrie de l'intelligence artificielle (IA) doit intervenir dès son apparition...

Vers une intelligence artificielle véritablement inclusive

Le sommet de l'Action AI de Paris a abouti à une "Déclaration sur l'intelligence artificielle inclusive et durable pour les personnes et la planète." Ce texte met en avant la nécessité de réduire les...