Annonce de la Commission européenne sur la loi sur l’IA

La Commission européenne a récemment annoncé qu’il n’y aura pas de retard dans l’application de la loi sur l’IA. Cette décision a suscité des réactions passionnées de part et d’autre, certains la considérant comme un échec épique, tandis que d’autres la voient comme une victoire épique.

Le jeu de la procrastination est terminé

Il est désormais clair que le temps pour jouer au jeu de la procrastination est révolu. Il est essentiel pour les organisations de se préparer à cette nouvelle réglementation qui affectera leurs projets futurs.

Les implications de la loi sur l’IA

Les entreprises doivent se demander si elles doivent craindre ce que la loi sur l’IA pourrait signifier pour leurs plans. En un mot, non. Cependant, des actions sont nécessaires pour se conformer aux exigences.

Action requise

Il est crucial de rassembler des faits concernant la loi. Bien que certaines parties de la loi soient déjà en vigueur, comme l’interdiction de certaines formes d’IA, deux grandes échéances de conformité se profilent à l’horizon :

  • Les modèles d’IA à usage général doivent se conformer d’ici le 2 août de cette année.
  • Les fournisseurs de systèmes d’IA auront un an de plus pour se conformer.

Qui est concerné par la loi ?

Peu d’entreprises correspondent à la définition de la loi sur l’IA concernant les fournisseurs de modèles d’IA à usage général, et encore moins répondent aux critères pour les modèles avec risques systémiques, qui comportent les obligations réglementaires les plus lourdes.

Si vous êtes dans ce groupe, vous êtes probablement déjà en discussion avec l’Bureau de l’IA de l’UE sur le code de conduite à venir. Si ce n’est pas le cas, et à moins que vous ne prévoyiez de former ou d’affiner massivement un nouveau modèle d’IA à usage général, vous pouvez probablement arrêter de vous inquiéter de la conformité de votre modèle.

Fournisseurs de systèmes d’IA : une situation différente

Pour les fournisseurs de systèmes d’IA, la situation est quelque peu différente. Si vos produits intègrent de l’IA ou de l’apprentissage machine, vous êtes probablement concernés. La date limite clé de août 2026 est réelle, mais elle est encore à plus d’un an. Commencez dès maintenant pour vous donner le temps de vous organiser avant cette échéance.

Vérification des catégories de risque

Consultez les Annexes 1 et 3 de la loi sur l’IA pour déterminer si votre organisation entre dans la catégorie des risques élevés. De nombreuses organisations seront agréablement surprises de la définition étroite de cette catégorie dans la loi et des exigences relativement légères pour celles qui n’y sont pas incluses.

Produits critiques pour la sécurité

Cependant, les produits critiques pour la sécurité utilisant l’IA ou les systèmes d’IA de risque normal qui sont ensuite intégrés dans des systèmes d’IA de risque élevé (systèmes de vos clients) devront effectuer un travail considérable pour respecter les exigences.

Conclusion : obtenir de l’aide experte

En conclusion, il est essentiel d’obtenir une aide experte (juristes, spécialistes de la gouvernance et ingénieurs en conformité) ainsi que des outils et processus pour faire face à ce défi. Comme pour la cybersécurité et la protection de la vie privée, il ne s’agit pas d’un projet ponctuel. Il est temps de s’engager et d’avancer.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...