Le Règlement sur l’Intelligence Artificielle de l’Union Européenne : Responsabilités et Systèmes à Haut Risque
Le règlement de l’Union Européenne sur l’Intelligence Artificielle (IA) s’attaque aux systèmes à haut risque en allouant des responsabilités aux acteurs désignés tout au long de la chaîne de valeur des systèmes. Cet article examine ces allocations de responsabilités et souligne certaines limitations notables qui pourraient poser des risques pour les individus.
Introduction
Adopté en 2024, le règlement sur l’IA vise à promouvoir l’utilisation d’une IA centrée sur l’humain et digne de confiance, tout en protégeant la santé, la sécurité et les droits fondamentaux des personnes. Ce règlement adopte une approche basée sur le risque, classant les systèmes d’IA en plusieurs catégories : risque inacceptable, haut risque, risque limité et risque faible, en plus de dispositions spécifiques pour les modèles d’IA à usage général.
Cet article se concentre sur les systèmes d’IA à haut risque et examine si le règlement alloue adéquatement les responsabilités tout au long du cycle de vie des systèmes. Nous commençons par définir ce que sont les systèmes d’IA à haut risque et identifier les acteurs clés à chaque étape de la chaîne de valeur.
Définition et Acteurs Clés des Systèmes d’IA à Haut Risque
Selon l’Article 6 du règlement, un système d’IA est classé comme haut risque dans deux cas : (1) lorsque le système est destiné à être utilisé comme un composant de sécurité d’un produit, ou d’un produit couvert par les lois de l’UE dans l’Annexe I du règlement et nécessite une évaluation de conformité par un tiers (par exemple, dispositifs médicaux in vitro, ascenseurs, jouets, etc.) ; ou (2) lorsque le système est mentionné dans l’Annexe III, qui traite principalement des préoccupations relatives aux droits fondamentaux.
Cependant, le paragraphe 3 de l’Article 6 fournit une exemption à cette catégorisation. Il précise qu’un système d’IA mentionné dans l’Annexe III n’est pas considéré comme haut risque lorsqu’il est destiné à : (a) exécuter une tâche procédurale étroite ; (b) améliorer le résultat d’une activité humaine déjà réalisée ; (c) détecter des schémas de prise de décision ou des déviations, sans être destiné à influencer l’évaluation humaine précédente sans examen humain approprié ; ou (d) effectuer une tâche préparatoire à l’évaluation pertinente des cas d’utilisation sous l’Annexe III.
Un système d’IA est exempté s’il ne présente pas un risque significatif de préjudice à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques. Dans ce cas, les fournisseurs des systèmes doivent documenter leur évaluation avant que le système ne soit mis sur le marché ou mis en service, et s’enregistrer ainsi que le système dans une nouvelle base de données de l’UE.
Limitations du Règlement
Bien que le règlement favorise la transparence, la conformité et la responsabilité, il présente des limitations significatives qui méritent d’être examinées. La structure linéaire de l’allocation des responsabilités peut ne pas suffire à traiter la complexité, l’opacité et l’autonomie des systèmes d’IA, qui introduisent des problèmes de responsabilité particuliers que le règlement ne traite pas entièrement.
Il est donc essentiel de raffiner davantage cette flexibilité pour garantir une meilleure protection des droits fondamentaux, de la santé et de la sécurité des individus. La nécessité de resserrer cette flexibilité est d’autant plus cruciale dans un paysage technologique en constante évolution, où les systèmes d’IA continuent de jouer un rôle de plus en plus important dans la société.