L’alphabétisation en IA : enjeux et perspectives sous l’AI Act

A computer with an open book

Évaluation de la littératie en IA sous l’AI Act : Portée et Enjeux

La littératie en intelligence artificielle (IA) est devenue un enjeu majeur dans le cadre de l’AI Act, une législation de l’Union Européenne visant à encadrer l’utilisation de l’IA. L’article 4 de cette législation impose aux fournisseurs et déployeurs de prendre des mesures pour garantir un niveau suffisant de littératie en IA parmi leur personnel.

Les responsabilités découlant de l’AI Act

Conformément à l’article 4, les organisations doivent fournir des formations adaptées à leurs employés pour leur permettre de comprendre et d’utiliser efficacement les systèmes d’IA. Cela inclut une connaissance générale des bénéfices et dangers que l’IA peut engendrer.

Il est essentiel de distinguer cette obligation de littératie des exigences de surveillance humaine. Alors que l’article 26(2) stipule que les systèmes à haut risque doivent être supervisés par des personnes compétentes, la littératie en IA requiert une compréhension plus générale des systèmes d’IA utilisés dans l’organisation.

Portée de l’article 4 de l’AI Act

La littératie en IA est un concept unique dans le cadre de l’AI Act, détaché de la catégorisation des risques des systèmes d’IA. Une interprétation isolée pourrait amener à conclure que les obligations de littératie s’appliquent à tous les systèmes répondant à la définition d’un système d’IA. Cette interprétation élargirait considérablement le champ d’application de l’AI Act.

Cependant, en tenant compte de la définition de la littératie en IA stipulée à l’article 3(56), il apparaît que les obligations de littératie ne s’appliquent pas strictement aux systèmes ne faisant pas partie des catégories traditionnelles de l’AI Act.

Enforcement et défis

Les questions d’application de l’article 4 soulèvent des préoccupations significatives. L’article 99(3-5) ne prévoit pas d’amendes en cas d’infraction aux obligations de littératie en IA, ce qui pose la question de l’efficacité de cette législation.

Bien que les États membres puissent établir des pénalités additionnelles, cela risque de créer une fragmentation et une incohérence dans l’application des règles.

Identification des systèmes d’IA : Une étape préliminaire

Avant de se conformer aux obligations de littératie, il est crucial pour les fournisseurs et déployeurs d’effectuer une évaluation de leurs systèmes d’IA afin de déterminer s’ils relèvent des catégories de risque définies par l’AI Act.

Le RGPD comme alternative pour les obligations de littératie

Pour les fournisseurs et déployeurs agissant en tant que contrôleurs de données sous le RGPD, il est important de noter que l’absence d’applicabilité de l’article 4 de l’AI Act n’exclut pas les obligations de formation pouvant découler d’autres instruments juridiques européens.

En ce qui concerne les systèmes d’IA qui traitent des données personnelles, une formation adéquate du personnel est essentielle pour garantir le respect des obligations de responsabilité des contrôleurs.

En conclusion, l’AI Act vise à promouvoir une compréhension adéquate des systèmes d’IA, mais son application et son enforcement soulèvent encore de nombreuses interrogations, tant sur le plan juridique que pratique.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...