Une arme à double tranchant : la loi sur l’IA de l’UE étouffera-t-elle ou encouragera-t-elle l’innovation technologique ?

Le récent sommet de Paris sur l’intelligence artificielle a remis l’IA sous les projecteurs. Le sommet d’action sur l’intelligence artificielle de février 2025 a représenté une tentative de renforcer l’action internationale en faveur d’une IA plus durable, au service du progrès collectif et de l’intérêt général.

Le 2 février 2025, l’approche réglementaire prudente de l’UE s’est manifestée avec l’entrée en vigueur des premiers aspects de la loi sur l’IA de l’UE. Cette loi interdit clairement les systèmes d’IA présentant un risque inacceptable, qu’ils aient été mis sur le marché avant ou après cette date.

Objectifs de la loi sur l’IA de l’UE

La loi sur l’IA de l’UE vise à établir un cadre juridique uniforme pour le développement et l’utilisation des systèmes d’IA, tout en garantissant un haut niveau de protection des intérêts publics, notamment la santé, la sécurité et les droits fondamentaux.

Le contraste entre l’approche de l’UE et celle des États-Unis est frappant. Lors du sommet à Paris, le vice-président américain a déclaré : « Nous croyons qu’une réglementation excessive du secteur de l’IA pourrait tuer une industrie transformative juste au moment où elle décolle. »

Impact de la loi sur l’IA de l’UE

Avec l’Amérique en tête de la révolution de l’IA, cette position pourrait avoir des répercussions à long terme. La loi sur l’IA de l’UE, entrée en vigueur le 1er août 2024, aura un impact non seulement sur les entreprises basées dans l’UE, mais également sur les entreprises étrangères. En effet, l’article 2 de la loi stipule son effet extraterritorial, lorsque la sortie d’un système d’IA est utilisée au sein de l’UE.

Il est également prévu que la loi sur l’IA de l’UE devienne une sorte de référence réglementaire mondiale, à l’instar du RGPD. Certains pourraient donc chercher à s’harmoniser avec cette loi comme question de meilleures pratiques et de gestion des risques.

Approche basée sur le risque

La loi sur l’IA de l’UE adopte une approche basée sur le risque adaptée au niveau de risque du système :

  • Systèmes d’IA à risque inacceptable, qui déploient des pratiques manipulatrices, exploitantes, de contrôle social ou de surveillance, sont désormais interdits.
  • Systèmes d’IA à haut risque, qui créent un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux d’une personne, sont réglementés.
  • Systèmes d’IA à risque limité, tels que les chatbots ou deepfakes, sont soumis à des obligations de transparence.
  • Systèmes d’IA à risque minimal, comme les filtres anti-spam, ne sont pas réglementés par la loi sur l’IA de l’UE mais restent soumis aux règlements applicables comme le RGPD.

La Commission européenne a publié deux ensembles de directives sur la définition des systèmes d’IA et sur les pratiques d’IA prohibées pour accroître la clarté juridique et garantir une application uniforme de la loi sur l’IA de l’UE. Cependant, ces directives sont « non contraignantes » et l’interprétation de la loi sur l’IA de l’UE est du ressort de la Cour de justice de l’Union européenne.

En pratique, les entreprises britanniques qui commercent avec l’UE, qu’elles soient fournisseurs, déployeurs, importateurs, distributeurs ou représentants de systèmes d’IA, doivent s’assurer qu’elles n’utilisent pas de systèmes d’IA qui fournissent un scoring social des personnes ou qui effectuent un scraping non ciblé d’images faciales pour alimenter des bases de données de reconnaissance faciale. Ces systèmes sont désormais interdits dans l’UE.

Sanctions et exceptions

Les sanctions en cas de non-conformité sont substantielles, les infractions relatives à l’IA prohibée pouvant entraîner une amende correspondant à 7 % du chiffre d’affaires annuel mondial de l’auteur de l’infraction ou à 35 millions d’euros, selon le montant le plus élevé.

Il existe des exceptions à la loi sur l’IA, notamment pour les systèmes d’IA développés pour un usage privé, à des fins de recherche scientifique et de développement, ou s’ils sont publiés sous des licences libres et open-source (sauf s’ils sont considérés comme à haut risque). De plus, la loi sur l’IA soutient l’innovation en permettant la création de zones de réglementation pour l’IA, fournissant un environnement contrôlé qui favorise l’innovation en facilitant le développement, la formation et le test des systèmes d’IA innovants.

Perspectives d’avenir

La question demeure de savoir si cette loi sera suffisante pour faire de l’UE une destination attrayante pour la recherche en IA et les startups ou si ces différentes dispositions étoufferont l’innovation. On pourrait dire qu’un tel cadre juridique pour le développement et l’utilisation des systèmes d’IA conformément aux valeurs et droits fondamentaux de l’UE pourrait aider à accroître la confiance des utilisateurs dans l’IA, ce qui stimulera la demande dans ce domaine.

Pour stimuler l’innovation, le président français a annoncé quelque 100 milliards d’euros d’investissements liés à l’IA lors du récent sommet à Paris. Cependant, tout type d’incitation ne soulagera pas les entreprises du fardeau de se conformer non seulement à la loi sur l’IA de l’UE, mais également à d’autres réglementations européennes applicables. Par exemple, tout système d’IA traitant des données personnelles devra se conformer au RGPD. À cet égard, la Commission nationale de l’informatique et des libertés (CNIL) a déjà publié des recommandations pour assurer la conformité au RGPD.

Il reste à voir si l’UE émergera comme un véritable innovateur en matière d’IA, mais la course pour mener la révolution de l’IA est largement considérée comme une course entre les États-Unis et la Chine.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...