Responsabilités et risques : l’impact de l’AI Act sur les systèmes à haut risque

A safety helmet

Le Règlement sur l’Intelligence Artificielle de l’Union Européenne : Responsabilités et Systèmes à Haut Risque

Le règlement de l’Union Européenne sur l’Intelligence Artificielle (IA) s’attaque aux systèmes à haut risque en allouant des responsabilités aux acteurs désignés tout au long de la chaîne de valeur des systèmes. Cet article examine ces allocations de responsabilités et souligne certaines limitations notables qui pourraient poser des risques pour les individus.

Introduction

Adopté en 2024, le règlement sur l’IA vise à promouvoir l’utilisation d’une IA centrée sur l’humain et digne de confiance, tout en protégeant la santé, la sécurité et les droits fondamentaux des personnes. Ce règlement adopte une approche basée sur le risque, classant les systèmes d’IA en plusieurs catégories : risque inacceptable, haut risque, risque limité et risque faible, en plus de dispositions spécifiques pour les modèles d’IA à usage général.

Cet article se concentre sur les systèmes d’IA à haut risque et examine si le règlement alloue adéquatement les responsabilités tout au long du cycle de vie des systèmes. Nous commençons par définir ce que sont les systèmes d’IA à haut risque et identifier les acteurs clés à chaque étape de la chaîne de valeur.

Définition et Acteurs Clés des Systèmes d’IA à Haut Risque

Selon l’Article 6 du règlement, un système d’IA est classé comme haut risque dans deux cas : (1) lorsque le système est destiné à être utilisé comme un composant de sécurité d’un produit, ou d’un produit couvert par les lois de l’UE dans l’Annexe I du règlement et nécessite une évaluation de conformité par un tiers (par exemple, dispositifs médicaux in vitro, ascenseurs, jouets, etc.) ; ou (2) lorsque le système est mentionné dans l’Annexe III, qui traite principalement des préoccupations relatives aux droits fondamentaux.

Cependant, le paragraphe 3 de l’Article 6 fournit une exemption à cette catégorisation. Il précise qu’un système d’IA mentionné dans l’Annexe III n’est pas considéré comme haut risque lorsqu’il est destiné à : (a) exécuter une tâche procédurale étroite ; (b) améliorer le résultat d’une activité humaine déjà réalisée ; (c) détecter des schémas de prise de décision ou des déviations, sans être destiné à influencer l’évaluation humaine précédente sans examen humain approprié ; ou (d) effectuer une tâche préparatoire à l’évaluation pertinente des cas d’utilisation sous l’Annexe III.

Un système d’IA est exempté s’il ne présente pas un risque significatif de préjudice à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques. Dans ce cas, les fournisseurs des systèmes doivent documenter leur évaluation avant que le système ne soit mis sur le marché ou mis en service, et s’enregistrer ainsi que le système dans une nouvelle base de données de l’UE.

Limitations du Règlement

Bien que le règlement favorise la transparence, la conformité et la responsabilité, il présente des limitations significatives qui méritent d’être examinées. La structure linéaire de l’allocation des responsabilités peut ne pas suffire à traiter la complexité, l’opacité et l’autonomie des systèmes d’IA, qui introduisent des problèmes de responsabilité particuliers que le règlement ne traite pas entièrement.

Il est donc essentiel de raffiner davantage cette flexibilité pour garantir une meilleure protection des droits fondamentaux, de la santé et de la sécurité des individus. La nécessité de resserrer cette flexibilité est d’autant plus cruciale dans un paysage technologique en constante évolution, où les systèmes d’IA continuent de jouer un rôle de plus en plus important dans la société.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...