Évaluation de la littératie en IA sous l’AI Act : Portée et Enjeux
La littératie en intelligence artificielle (IA) est devenue un enjeu majeur dans le cadre de l’AI Act, une législation de l’Union Européenne visant à encadrer l’utilisation de l’IA. L’article 4 de cette législation impose aux fournisseurs et déployeurs de prendre des mesures pour garantir un niveau suffisant de littératie en IA parmi leur personnel.
Les responsabilités découlant de l’AI Act
Conformément à l’article 4, les organisations doivent fournir des formations adaptées à leurs employés pour leur permettre de comprendre et d’utiliser efficacement les systèmes d’IA. Cela inclut une connaissance générale des bénéfices et dangers que l’IA peut engendrer.
Il est essentiel de distinguer cette obligation de littératie des exigences de surveillance humaine. Alors que l’article 26(2) stipule que les systèmes à haut risque doivent être supervisés par des personnes compétentes, la littératie en IA requiert une compréhension plus générale des systèmes d’IA utilisés dans l’organisation.
Portée de l’article 4 de l’AI Act
La littératie en IA est un concept unique dans le cadre de l’AI Act, détaché de la catégorisation des risques des systèmes d’IA. Une interprétation isolée pourrait amener à conclure que les obligations de littératie s’appliquent à tous les systèmes répondant à la définition d’un système d’IA. Cette interprétation élargirait considérablement le champ d’application de l’AI Act.
Cependant, en tenant compte de la définition de la littératie en IA stipulée à l’article 3(56), il apparaît que les obligations de littératie ne s’appliquent pas strictement aux systèmes ne faisant pas partie des catégories traditionnelles de l’AI Act.
Enforcement et défis
Les questions d’application de l’article 4 soulèvent des préoccupations significatives. L’article 99(3-5) ne prévoit pas d’amendes en cas d’infraction aux obligations de littératie en IA, ce qui pose la question de l’efficacité de cette législation.
Bien que les États membres puissent établir des pénalités additionnelles, cela risque de créer une fragmentation et une incohérence dans l’application des règles.
Identification des systèmes d’IA : Une étape préliminaire
Avant de se conformer aux obligations de littératie, il est crucial pour les fournisseurs et déployeurs d’effectuer une évaluation de leurs systèmes d’IA afin de déterminer s’ils relèvent des catégories de risque définies par l’AI Act.
Le RGPD comme alternative pour les obligations de littératie
Pour les fournisseurs et déployeurs agissant en tant que contrôleurs de données sous le RGPD, il est important de noter que l’absence d’applicabilité de l’article 4 de l’AI Act n’exclut pas les obligations de formation pouvant découler d’autres instruments juridiques européens.
En ce qui concerne les systèmes d’IA qui traitent des données personnelles, une formation adéquate du personnel est essentielle pour garantir le respect des obligations de responsabilité des contrôleurs.
En conclusion, l’AI Act vise à promouvoir une compréhension adéquate des systèmes d’IA, mais son application et son enforcement soulèvent encore de nombreuses interrogations, tant sur le plan juridique que pratique.