Le défi de la conformité réglementaire des entreprises axées sur l’IA
La montée de l’intelligence artificielle (IA) dans le secteur industriel pose des défis significatifs, notamment en ce qui concerne la conformité réglementaire. De nombreuses entreprises hésitent à adopter des solutions basées sur l’IA en raison d’une incertitude quant à la manière d’atteindre cette conformité. En Europe, ce défi est exacerbé par un cadre réglementaire complexe et en constante évolution.
Les défis de la conformité réglementaire
La conformité réglementaire est un fardeau lourd pour de nombreuses entreprises. Par exemple, une société du secteur automobile a signalé qu’elle devait respecter entre 250 et 300 réglementations pour pouvoir vendre ses produits à l’échelle mondiale.
Avec l’entrée en vigueur de lois telles que le RGPD et la Data Act, le fardeau réglementaire a considérablement augmenté. Cela ne fera qu’empirer avec l’implémentation de l’AI Act et de la Cyber Resilience Act, qui peuvent entraîner des amendes pouvant atteindre 10 % des revenus.
Le paradoxe de l’innovation
Bien que ces réglementations ne prohibent pas explicitement des approches comme le DevOps, il est souvent plus simple d’assurer la conformité en ne touchant pas aux systèmes après leur mise en fonction. Cela va à l’encontre des principes de digitalisation et d’évolution continue, qui sont au cœur de l’IA et des technologies numériques.
Les principaux défis identifiés
Une étude récente a mis en évidence plusieurs défis concernant l’IA dans un contexte de conformité réglementaire :
- Difficulté d’interprétation des règles et réglementations.
- Évitement des risques liés aux amendes élevées.
- Besoin de supervision humaine.
- Comportement non déterministe des systèmes d’IA.
- Manque d’automatisation dans la collecte des preuves de conformité.
Difficulté d’interprétation
La compréhension des nouvelles règles peut s’avérer ardue. Un exemple marquant est une entreprise ayant consulté cinq cabinets d’avocats différents pour interpréter la Data Act, ne recevant que des interprétations divergentes.
Évitement des risques
Face à des amendes pouvant atteindre 10 % des revenus, les dirigeants sont souvent réticents à prendre des risques. Cela les pousse à éviter toute innovation, de peur de violer les réglementations, ce qui peut ralentir considérablement le rythme d’innovation et exposer les entreprises à des disruptions.
Supervision humaine et comportement non déterministe
De nombreuses réglementations exigent une supervision humaine, rendant difficile le remplacement des humains par des agents d’IA. De plus, la nature non déterministe de l’apprentissage automatique peut conduire à des résultats variés, même avec des données d’entrée identiques, ce qui soulève des préoccupations, notamment dans des contextes critiques pour la sécurité.
Manque d’automatisation
La plupart des réglementations nécessitent de fournir des preuves de conformité. Contrairement au principe de « présumé innocent », la charge de la preuve incombe à l’entreprise. La collecte manuelle de ces preuves est extrêmement chronophage et entraîne souvent une réduction des lancements de produits.
Conclusion
Le défi de la conformité réglementaire pour les entreprises cherchant à adopter des solutions basées sur l’IA est majeur. Les préoccupations vont de la difficulté d’interprétation à la nécessité d’une supervision humaine, en passant par le comportement non déterministe des systèmes et le manque d’automatisation. L’absence de clarté sur la manière d’atteindre la conformité entraîne une ralentissement de l’adoption de l’IA, ce qui peut avoir des conséquences néfastes pour l’innovation. Une citation résume bien cette problématique : « Nous devrions valoriser l’innovation et la liberté plutôt que la réglementation. »