La littératie en IA : le prochain grand défi de conformité pour les entreprises
Alors que la réglementation ne parvient pas à suivre le rythme du déploiement rapide de l’IA, la loi sur l’IA de l’UE établit une norme claire : tous les employés doivent être littératie en IA. L’adoption de l’IA dans les entreprises s’accélère. Selon les données de McKinsey, plus de 78 % des entreprises mondiales utiliseront l’IA cette année, avec 71 % déployant l’IA générative dans au moins une fonction. Cependant, cette propagation rapide entraîne un défi récurrent : un manque de compréhension du fonctionnement de ces outils. C’est ce problème que les régulateurs commencent maintenant à examiner avec le sujet brûlant de la littératie en IA.
Les exigences réglementaires croissantes
Avec l’augmentation de l’utilisation de l’IA, les attentes des régulateurs augmentent également. Une disposition de la loi sur l’IA de l’UE, l’Article 4 sur la littératie en IA, exige désormais que les organisations garantissent que tous les employés, y compris les contractuels et les fournisseurs, comprennent les outils qu’ils utilisent. Cette loi est entrée en vigueur en février 2025, et bien que l’application formelle par les autorités nationales commence en août 2026, nous avons déjà vu la menace de litiges privés concernant les obligations de littératie en IA.
L’Article 4 est clair : les utilisateurs et ceux affectés par les systèmes d’IA doivent avoir une « littératie en IA suffisante pour prendre des décisions éclairées ». Cela ne concerne pas seulement les développeurs, les scientifiques des données ou les équipes informatiques. J’ai travaillé avec des équipes de ressources humaines utilisant l’IA dans le recrutement, des équipes marketing déployant de l’IA générative et des organisations où des contractuels utilisent des systèmes d’IA. Toutes ces personnes sont soumises à cette exigence.
Une responsabilité pour toutes les entreprises
Certaines organisations supposent que la littératie en IA ne s’applique pas à elles parce qu’elles ne sont pas dans le secteur technologique. Mais tout déployeur d’IA est inclus, même s’il ne se considère pas comme « utilisant l’IA ». C’est pourquoi les entreprises doivent être proactives.
La Commission européenne définit la littératie en IA comme les « compétences, connaissances et compréhension » nécessaires pour utiliser l’IA de manière responsable. Cela signifie :
- Comprendre comment fonctionnent les systèmes d’IA et les données qu’ils utilisent.
- Reconnaître les risques tels que le biais, la discrimination et les hallucinations.
- Savoir quand et comment appliquer une supervision humaine.
- Être conscient des obligations légales en vertu de la loi sur l’IA de l’UE et d’autres cadres pertinents.
Les conséquences de la non-conformité
La portée de l’Article 4 est large. Toute organisation utilisant l’IA dans l’UE doit s’y conformer, y compris les entreprises américaines offrant des services habilités par l’IA sur les marchés de l’UE. Et ce n’est pas seulement l’équipe technique qui est à risque : un chatbot dysfonctionnel ou un algorithme de recrutement qui perpétue le biais pourrait rendre l’organisation responsable.
Je vois également un défi générationnel. Les natifs numériques trouvent souvent des outils d’IA par eux-mêmes, via la recherche ou les réseaux sociaux, ce qui peut exposer les organisations à des risques s’il n’y a pas de directives. L’IA fantôme est également une préoccupation croissante, et interdire l’IA ne stoppe pas son utilisation, cela la déplace souvent sur des appareils personnels, où la surveillance est limitée. Avoir une bonne formation et des politiques claires en place n’a jamais été aussi important.
Actions pratiques à entreprendre
Alors que l’application réglementaire de l’Article 4 commence l’été prochain, les entreprises peuvent déjà faire face à des actions civiles ou à des plaintes auprès des autorités de protection des données si l’IA est utilisée de manière irresponsable. Pour cette raison, il est essentiel que les entreprises prennent les devants ; voici plusieurs actions pratiques à entreprendre :
- Cartographier votre écosystème IA : Organisez des séances pour découvrir qui utilise quoi. Auditez tous les systèmes d’IA, qu’ils soient utilisés pour la prise de décision, l’interaction client ou la génération de contenu.
- Adapter la formation à la littératie en IA : Rendez-la spécifique à chaque rôle. Les équipes RH utilisant l’IA dans le recrutement doivent comprendre les biais, la protection des données et l’explicabilité, tandis que d’autres équipes peuvent avoir besoin d’explications sur différents risques.
- Réviser les contrats avec les tiers : Les fournisseurs utilisant l’IA en votre nom doivent également répondre aux normes de littératie.
- Établir des politiques internes sur l’IA : Définissez l’utilisation acceptable, les processus d’approbation et les exigences de révision humaine.
- Impliquer la direction : L’utilisation responsable de l’IA commence par le haut. Les dirigeants doivent intégrer une culture de conformité et de transparence.
La concentration sur la littératie en IA marque un changement majeur. Les entreprises ne peuvent plus prétendre qu’elles déploient l’IA de manière responsable si leurs employés ne la comprennent pas. Tout comme le RGPD a transformé les pratiques de données, la loi sur l’IA de l’UE redéfinit la manière dont l’IA est mise en œuvre, surveillée et expliquée. Ce qui était auparavant une meilleure pratique est désormais une obligation légale, et plus les entreprises agissent tôt, mieux elles se positionnent pour se conformer.