La législation sur l’IA de l’UE : un modèle pour le monde entier
Le 2 août 2025 a marqué l’entrée en vigueur de la deuxième phase de la Loi sur l’IA de l’UE, qui impose des obligations pour les modèles d’IA à usage général. Cette loi a été adoptée pour la première fois en février 2025, avec un ensemble initial d’applications intégrées, et elle est mise en œuvre par étapes, la dernière vague étant attendue pour le 2 août 2027.
Cette législation révolutionnaire est considérée comme la première réglementation complète sur l’IA au monde. À l’instar du RGPD pour la protection des données dans les années 2010, la Loi sur l’IA devrait servir de référence mondiale pour la gouvernance de cette technologie transformative pendant des décennies.
Une approche de gestion des risques
La Loi sur l’IA adopte une approche de gestion des risques, visant à réglementer la transparence et la responsabilité des systèmes d’IA et de leurs développeurs. Bien qu’elle ait été adoptée en 2024, la première vague d’application a été mise en œuvre en février 2025, couvrant les systèmes d’IA considérés comme présentant un risque inacceptable.
La deuxième vague, qui a été mise en œuvre ce mois-ci, concerne les modèles d’IA à usage général (GPAI) et est considérée comme la plus importante en termes de portée. Les prochaines étapes sont attendues en août 2026 pour les systèmes à haut risque et en août 2027 pour les étapes finales de mise en œuvre.
Obligations des fournisseurs de GPAI
À partir du 2 août 2025, les fournisseurs de GPAI doivent se conformer à des obligations de transparence et de droit d’auteur lors de la mise sur le marché de leurs modèles dans l’UE. Cela s’applique non seulement aux entreprises basées dans l’UE, mais aussi à toute organisation ayant des opérations dans l’UE. Les modèles GPAI déjà sur le marché avant cette date doivent garantir leur conformité d’ici le 2 août 2027.
Les modèles GPAI incluent ceux entraînés avec plus de 10^23 opérations à virgule flottante (FLOP) et capables de générer du langage (texte ou audio), du texte à l’image ou du texte à la vidéo.
Les fournisseurs doivent conserver une documentation technique sur le modèle, y compris un résumé suffisamment détaillé de son corpus d’entraînement. De plus, ils doivent mettre en œuvre une politique de conformité avec le droit d’auteur de l’UE.
Un groupe de modèles GPAI est classé comme présentant un risque systémique, consistant en des modèles très avancés développés par un nombre restreint de fournisseurs. Ces entreprises doivent notifier la Commission européenne lors du développement d’un modèle jugé à risque systémique et prendre des mesures pour garantir la sécurité de ce modèle.
Critiques et défis de la Loi sur l’IA
La Loi sur l’IA a suscité des critiques en raison de son impact disproportionné sur les startups et les PME. Certains experts soutiennent qu’elle devrait inclure des exceptions pour les technologies qui n’ont pas encore eu d’impact significatif sur le grand public. D’autres affirment qu’elle pourrait freiner les progrès des organisations européennes dans le processus de formation de leurs modèles d’IA, et que les règles sont confuses.
En juillet dernier, plusieurs lobbys technologiques, dont la CCIA Europe, ont appelé l’UE à suspendre la mise en œuvre de la loi, arguant que son déploiement avait été trop précipité sans évaluer les conséquences potentielles.
Cependant, cette législation a été élaborée en collaboration avec des milliers de parties prenantes du secteur privé, à un moment où les entreprises recherchent des orientations réglementaires. Elle introduit également des pratiques de sécurité standard à travers l’UE, dans une période critique d’adoption.
Enfin, la Loi sur l’IA établit une norme mondiale que d’autres pays, y compris les États-Unis, auront de plus en plus de mal à ignorer, répondant ainsi aux appels en faveur d’une IA responsable, un effort louable qui marquera l’histoire.