Ce que l’on peut attendre de la loi sur l’intelligence artificielle de l’UE en 2025
La loi sur l’IA de l’UE a été formellement adoptée, et les industries se demandent quelles seront les prochaines étapes.
Définition de l’IA selon la loi
La loi de l’UE définit un système d’IA comme « un système basé sur une machine conçu pour fonctionner avec des niveaux d’autonomie variés et pouvant présenter une adaptabilité après déploiement, et qui, pour des objectifs explicites ou implicites, infère, à partir de l’entrée qu’il reçoit, comment générer des sorties telles que des prévisions, du contenu, des recommandations ou des décisions qui peuvent influencer des environnements physiques ou virtuels ».
Cette définition met en avant plusieurs aspects clés :
- Autonomie : Un système d’IA doit avoir la capacité de fonctionner indépendamment de l’intervention humaine.
- Adaptabilité : Les systèmes d’IA doivent démontrer des capacités d’auto-apprentissage, leur permettant de s’adapter et d’améliorer leurs performances en fonction de nouvelles données.
- Capacité d’inférence : Les systèmes d’IA doivent être capables de traiter des entrées et de produire des sorties influençant les environnements physiques et virtuels.
La loi vise à être technologiquement neutre et à distinguer les systèmes d’IA des logiciels traditionnels.
Délais d’application de la loi
Actuellement, la loi sur l’IA n’est pas encore entrée en application, mais plusieurs dispositions devraient entrer en vigueur à partir du 2 février 2025. Voici un aperçu des délais clés :
- 1er février 2025 : Entrée en application des dispositions concernant les pratiques d’IA interdites.
- 1er août 2025 : Obligations spécifiques aux modèles d’IA à usage général commenceront à s’appliquer.
- 1er août 2026 : Obligations applicables aux systèmes d’IA à haut risque entreront en vigueur.
- 1er août 2027 : Obligations applicables aux systèmes d’IA à haut risque utilisés comme composant de sécurité d’un produit.
Réactions des industries face à la loi
Il existe une anxiété notable au sein de diverses industries en raison de l’incertitude juridique. Les entreprises ont du mal à déterminer si elles relèvent du champ d’application de la loi et à comprendre leurs obligations.
Le secteur des sciences de la vie semble plus préparé à la loi sur l’IA par rapport à d’autres secteurs, en raison de son expérience avec des cadres réglementaires stricts.
Impact sur la recherche et les projets académiques
La loi sur l’IA pourrait influencer la recherche en IA et les projets académiques au sein de l’UE. Bien qu’elle promeuve le développement éthique de l’IA, elle pourrait aussi imposer des contraintes qui découragent l’expérimentation.
Il est important de noter que la loi exclut explicitement les systèmes d’IA développés uniquement à des fins de recherche scientifique des obligations de conformité.
Gestion des biais et de la discrimination
La loi sur l’IA accorde une grande importance à la lutte contre les biais et la discrimination. Elle impose des exigences strictes pour le développement et le déploiement de systèmes d’IA, en particulier ceux classés comme à haut risque.
Pour prévenir les pratiques nuisibles, la loi interdit certaines pratiques d’IA, telles que celles qui manipulent les individus ou exploitent leurs vulnérabilités.
Les systèmes d’IA à haut risque doivent utiliser des ensembles de données représentatifs et exempts d’erreurs, minimisant ainsi les biais dans les modèles d’IA.
En conclusion, la loi sur l’IA de l’UE établit un cadre complet pour lutter contre les biais et la discrimination, en mettant l’accent sur des données de haute qualité, la transparence, la responsabilité et le suivi continu.