Des règles de conformité de l’UE pour les modèles d’IA à haut risque et fondamentaux
Le 22 juillet 2025, la Commission européenne a publié des lignes directrices visant à aider les entreprises à se conformer à la loi sur l’intelligence artificielle (IA) de l’UE, qui entrera en vigueur le 2 août pour les modèles d’IA présentant des risques systémiques et des modèles à usage général.
Objectifs de la loi sur l’IA
Cette législation vise à réglementer les systèmes d’IA puissants qui pourraient avoir un impact sur la santé publique, la sécurité, les droit fondamentaux ou la société. Parmi les entreprises concernées figurent des géants de la technologie tels que Google, OpenAI, Meta, Anthropic et Mistral.
Exigences pour les entreprises
Conformément à la loi sur l’IA, les entreprises doivent :
- Évaluer leurs modèles
- Tester les menaces potentielles
- Rapporter les incidents graves
- Assurer des protections en matière de cybersécurité
Les modèles à usage général ou fondamentaux doivent également respecter des règles de transparence, notamment en préparant des documents techniques, en adoptant des pratiques de droit d’auteur, et en résumant les sources de données utilisées pour l’entraînement.
Sanctions en cas de non-conformité
La loi sur l’IA, qui a été adoptée l’année dernière, accorde aux entreprises jusqu’au 2 août 2025 pour se conformer à toutes ses exigences. Les violations peuvent entraîner des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial, selon le type d’infraction.
Déclaration de la Commission européenne
Dans une déclaration, la cheffe de la technologie de l’UE a souligné que les lignes directrices soutiennent une application fluide des règles, garantissant ainsi que les entreprises disposent des outils nécessaires pour naviguer dans ce cadre réglementaire complexe.