État actuel de la réglementation de l’IA : Naviguer vers l’avenir de la réglementation de l’IA dans l’UE
Alors que l’Union Européenne (UE) continue de faire des progrès significatifs dans la réglementation des technologies émergentes, la loi sur l’intelligence artificielle (IA Act) se distingue comme un effort législatif majeur visant à encadrer les systèmes d’IA. À mesure que l’UE avance avec la loi sur l’IA, les autorités de surveillance affirment déjà que la préparation à la conformité avec cette législation doit commencer maintenant. Plusieurs domaines de contentieux ont émergé, mettant en lumière le défi d’équilibrer innovation et considérations éthiques et juridiques, notamment à la lumière des récents développements politiques (par exemple, la pression de l’administration américaine).
Il a été rapporté que la Commission Européenne (CE) envisage de rendre certaines exigences de la loi sur l’IA volontaires, proposition qui fait l’objet d’une forte opposition de la part du Parlement Européen (PE).
Chronologie de mise en œuvre
La loi sur l’IA devrait devenir pleinement applicable le 1er août 2026, après une période de mise en œuvre de deux ans. Cependant, comme c’est souvent le cas avec une législation complexe, certaines règles entreront en vigueur plus tôt.
Depuis le 2 février 2025, les systèmes d’IA classés comme risque inacceptable (comme les systèmes d’IA permettant le scoring social ou le scraping non ciblé d’internet pour créer des bases de données de reconnaissance faciale) sont interdits, marquant une étape significative vers la protection des droits fondamentaux. De plus, les organisations développant ou utilisant des systèmes d’IA doivent garantir que leurs employés soient littérates en IA, ce qui signifie qu’ils doivent encourager une connaissance suffisante de l’IA parmi leurs employés.
Au plus tard le 2 mai 2025, les fournisseurs de systèmes d’IA devront avoir leurs codes de pratiques prêts pour démontrer leur conformité aux exigences de la loi.
De plus, les systèmes à haut risque disposeront d’un délai supplémentaire pour se conformer, avec une date limite prolongée jusqu’au 2 août 2027, permettant aux parties prenantes de s’adapter à ce nouveau paysage réglementaire.
Statut et développements actuels
Depuis 2021, la (alors proposée) loi sur l’IA est soumise à un examen et à un débat au sein du processus législatif de l’UE. Le PE et le Conseil de l’UE ont été activement engagés dans des discussions pour affiner les dispositions de la loi sur l’IA et répondre aux préoccupations soulevées par divers acteurs. La loi sur l’IA a été adoptée officiellement le 13 mars 2024. La CE vise maintenant à fournir des orientations dans ces discussions.
En février 2025, la CE a publié des lignes directrices sur les pratiques d’IA interdites et sur la définition des systèmes d’IA. Cependant, les critiques affirment que ces documents entraînent plus de confusion que de clarté. Actuellement, les principaux domaines de discussion incluent la définition des systèmes d’IA à haut risque, le champ d’application des exigences de transparence, et l’équilibre entre innovation et réglementation.
Définition des systèmes d’IA à haut risque
L’un des domaines de débat les plus significatifs tourne autour de la définition et de la catégorisation des systèmes d’IA à haut risque. La loi sur l’IA cherche à imposer des exigences strictes sur les systèmes jugés à haut risque, tels que ceux utilisés dans l’application de la loi, les infrastructures critiques et l’emploi. Cependant, les acteurs concernés ont exprimé des inquiétudes quant aux critères utilisés pour déterminer ce qui constitue un haut risque. Certains soutiennent que les définitions actuelles peuvent être trop larges, risquant d’étouffer l’innovation en imposant des charges réglementaires excessives sur des technologies qui ne posent pas de risques significatifs. D’autres plaident pour des critères plus précis afin de garantir que les applications à haut risque soient réglementées de manière adéquate tout en permettant aux technologies moins risquées de prospérer.
Transparence et responsabilité
La transparence et la responsabilité sont des principes centraux de la loi sur l’IA, mais ils restent des questions contentieuses. La loi exige que les systèmes d’IA, notamment ceux classés comme hauts risques, soient transparents dans leur fonctionnement et soumis à une supervision humaine. Cependant, les spécificités de ces exigences sont en débat. Les représentants de l’industrie expriment des inquiétudes selon lesquelles des obligations de transparence trop prescriptives pourraient entraver le développement de technologies propriétaires et compromettre l’avantage concurrentiel. À l’inverse, les groupes de défense des consommateurs soulignent la nécessité de mesures de transparence robustes pour protéger les utilisateurs et garantir un déploiement éthique de l’IA.
Le vide juridique en matière de droits d’auteur
En février 2025, dans une lettre adressée à la CE, 15 organisations culturelles ont souligné la nécessité d’une nouvelle législation pour protéger les écrivains, musiciens et créatifs qui sont vulnérables en raison d’un prétendu « vide juridique » dans la loi sur l’IA. Selon un expert en droits d’auteur, la loi sur l’IA ne traite pas adéquatement des défis en matière de droits d’auteur posés par les modèles d’IA générative. L’exemption de text mining et de data mining dans la loi, initialement destinée à un usage privé limité, aurait été mal interprétée d’une manière qui pourrait permettre à de grandes entreprises technologiques de traiter d’énormes quantités de propriété intellectuelle. Cela a suscité des inquiétudes et des poursuites de la part d’auteurs et de musiciens. La CE a reconnu ces défis et envisage des mesures supplémentaires pour équilibrer innovation et protection de la créativité humaine.
Utilisation de la technologie de reconnaissance faciale en Hongrie
Un exemple concret des défis rencontrés dans l’application de la loi sur l’IA est l’utilisation de la technologie de reconnaissance faciale en Hongrie, où le pays propose d’utiliser une reconnaissance faciale basée sur l’IA pour sanctionner les participants à la Pride de Budapest. Des rapports indiquent que le déploiement de cette technologie enfreint les dispositions de la loi sur l’IA, un porte-parole de la CE déclarant que l’évaluation de la légalité dépendrait de savoir si la reconnaissance faciale serait administrée en temps réel ou ultérieurement. Des membres du PE exhortent la CE à examiner la question. Ce cas souligne les difficultés à faire appliquer les exigences de la loi sur l’IA à travers les États membres – la partie sur la responsabilité de la loi est encore floue, notamment depuis le retrait de la directive sur la responsabilité de l’IA – et met en évidence la nécessité de lignes directrices claires et de mécanismes d’application.
Protection des mineurs
La loi sur l’IA aborde également la protection des mineurs, mais ce domaine reste semé de défis. Assurer que les systèmes d’IA n’exploitent ni ne nuisent aux mineurs est une priorité, mais les directives pour y parvenir efficacement sont encore en cours de perfectionnement. La complexité de la réglementation de l’IA dans les contextes impliquant des mineurs, tels que les technologies éducatives et les plateformes de médias sociaux, nécessite une attention particulière pour équilibrer protection et accès à des technologies bénéfiques.
Implications pour les parties prenantes
Bien que la loi sur l’IA reste encore très théorique et que la partie sur la responsabilité de la loi ne soit toujours pas claire, il est important que les organisations utilisant des systèmes d’IA soient conscientes des règles et commencent à préparer leur conformité avec la loi sur l’IA. Pour des informations supplémentaires sur les implications de la loi sur l’IA et les étapes nécessaires que les développeurs et les utilisateurs doivent entreprendre sur la voie de la conformité, les autorités néerlandaise et belge de protection des données fournissent des ressources et des orientations sur leurs sites web respectifs. Cela inclut la réalisation d’évaluations de risque approfondies, la mise en œuvre de mesures de transparence et l’amélioration de la littératie en IA.
Conclusion
Dans l’ensemble, la loi sur l’IA est sur le point d’avoir des implications considérables pour les entreprises, les développeurs et les utilisateurs de technologies d’IA à travers l’UE, des implications souvent imprévues. La loi sur l’IA représente un moment charnière dans la réglementation de l’IA au sein de l’UE. Comme il devient évident, il ne s’agit pas d’une législation « panacée » résolvant toutes les ambiguïtés pour les organisations utilisant et développant des systèmes d’IA. Les lignes directrices de la CE tentant de fournir des orientations échouent en partie à atteindre cet objectif. De plus, la loi sur l’IA est pertinente dans tous les secteurs et domaines de pratique, et les systèmes d’IA seront réglementés par d’autres législations en plus de la loi sur l’IA, telles que le RGPD et les lois anti-discrimination. Ces complexités soulignent la nécessité d’une orientation juridique complète. Dans les prochains épisodes de cette série sur l’IA, nous approfondirons des sujets et aspects spécifiques de la loi sur l’IA, naviguant entre ces secteurs et domaines de pratique, tentant de sensibiliser et de fournir des orientations pratiques et interdisciplinaires.