Règlement sur l’IA : Vers une intelligence artificielle responsable en Europe

A lock and key

Entrée en vigueur du règlement sur l’IA

Le règlement européen sur l’intelligence artificielle (IA) est entré en vigueur le 1er août 2024. Ce règlement vise à favoriser un développement et un déploiement responsables de l’intelligence artificielle dans l’UE.

Contexte et Objectifs

Proposé par la Commission en avril 2021 et approuvé par le Parlement européen et le Conseil en décembre 2023, le règlement sur l’IA s’attaque aux risques potentiels pour la santé, la sécurité et les droits fondamentaux des citoyens. Il établit des exigences et des obligations claires pour les développeurs et les déployeurs d’IA, tout en visant à réduire les charges administratives et financières pesant sur les entreprises.

Un cadre uniforme pour l’UE

Ce règlement introduit un cadre uniforme dans tous les pays de l’UE, axé sur une définition prospective de l’IA et une approche fondée sur les risques. Les systèmes d’IA sont classés selon leur niveau de risque :

  • Risque minime: La plupart des systèmes d’IA, tels que les filtres anti-spam et les jeux vidéo, ne sont soumis à aucune obligation. Les entreprises peuvent néanmoins adopter volontairement des codes de conduite supplémentaires.
  • Risque spécifique en matière de transparence: Les systèmes d’IA comme les dialogueurs (chatbots) doivent indiquer clairement aux utilisateurs qu’ils interagissent avec une machine.
  • Risque élevé: Les systèmes d’IA à haut risque, tels que les logiciels médicaux ou les systèmes de recrutement, doivent respecter des exigences strictes, y compris des systèmes d’atténuation des risques et la qualité des ensembles de données.
  • Risque inacceptable: Les systèmes d’IA permettant une notation sociale par les gouvernements ou les entreprises sont interdits, car ils constituent une menace pour les droits fondamentaux des citoyens.

Ambition de l’UE

L’UE aspire à devenir un leader mondial dans le domaine de l’IA sûre. En élaborant un cadre réglementaire solide fondé sur les droits de l’homme et les valeurs fondamentales, l’UE peut créer un écosystème d’IA bénéfique pour tous. Cela permettra d’améliorer les soins de santé, d’assurer des transports plus sûrs et plus propres, et d’offrir des services publics améliorés.

Un tel écosystème d’IA encouragera également la mise au point de produits et de services innovants dans des domaines cruciaux tels que l’énergie, la sécurité et les soins de santé, tout en augmentant la productivité et en rendant les procédés de fabrication plus efficaces pour les entreprises.

Consultation et code de bonnes pratiques

Récemment, la Commission a lancé une consultation sur un code de bonnes pratiques pour les fournisseurs de modèles d’intelligence artificielle à usage général. Ce code, prévu par le règlement sur l’IA, abordera des domaines critiques tels que la transparence, les règles relatives au droit d’auteur et la gestion des risques.

Les fournisseurs de modèles d’IA à usage général exerçant des activités dans l’UE, ainsi que les entreprises, les représentants de la société civile, les titulaires de droits et les experts universitaires, sont invités à partager leurs opinions. Ces contributions alimenteront le futur projet de code de bonnes pratiques de la Commission.

Prochaines étapes

Les dispositions relatives à l’IA à usage général entreront en application dans 12 mois. La Commission entend finaliser le code de bonnes pratiques d’ici avril 2025. De plus, les avis reçus lors de la consultation contribueront aux travaux du Bureau de l’IA, qui supervisera la mise en œuvre et l’application des dispositions du règlement sur l’IA.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...