Régulation de l’IA : Entre innovation et contraintes

A lock and key

AI pris dans le viseur de la réglementation

Depuis la sortie publique de ChatGPT en novembre 2022, l’excitation autour de l’intelligence artificielle (IA) a explosé. En réponse, certains estiment que l’IA nécessite une réglementation plus stricte, tandis que d’autres craignent qu’une législation trop rigide n’étouffe une industrie sur le point de décoller. De plus, dans un monde hautement connecté, imposer des réglementations strictes sur l’IA pourrait offrir un avantage concurrentiel aux marchés moins réglementés. Néanmoins, l’UE est clairement d’avis que l’IA ne peut pas être laissée à elle-même.

En juin 2024, l’UE a adopté la première réglementation complète au monde sur l’IA : la loi sur l’intelligence artificielle. Cette loi, qui sera pleinement applicable après une période de mise en œuvre de deux ans, fait partie d’une initiative plus large visant à renforcer le développement régional de l’IA, connue sous le nom de Plan d’action pour le continent IA. Cette approche a déjà suscité des opinions partagées.

« Le Plan d’action pour le continent IA non seulement complète la loi sur l’IA de l’UE en associant réglementation à des investissements stratégiques à grande échelle, à des infrastructures, au développement des talents et au soutien à l’innovation, mais il opérationnalise également la loi sur l’IA de l’UE en construisant un puissant écosystème de soutien », explique un dirigeant d’une société mondiale de gestion d’infrastructure. « Le Plan d’action pour le continent IA positionne l’Europe comme un leader mondial dans l’IA responsable. »

Inversement, les détracteurs de la loi avertissent qu’elle sur-régule, risquant potentiellement d’étouffer l’innovation et de créer un fardeau de conformité écrasant pour les petites entreprises. Selon un rapport de PwC, l’IA pourrait contribuer à hauteur de 15,7 trillions de dollars à l’économie mondiale d’ici 2030. La question est de savoir si la loi sur l’IA de l’UE positionne le bloc pour saisir une part de ce capital ou si elle entraîne des investissements vers d’autres régions.

Entrée dans une nouvelle ère

Bien que les racines de l’IA puissent être retracées sur des décennies, les discussions sur l’étendue de la réglementation de la technologie ont commencé à s’intensifier après la sortie de ChatGPT. Depuis lors, l’IA s’est répandue rapidement, en particulier dans le monde des affaires, avec plus de 75 % des répondants à une enquête mondiale récente de McKinsey sur l’IA déclarant que leurs organisations utilisent cette technologie dans au moins une fonction commerciale.

Les statistiques sur la prévalence de l’IA dissimulent le fait que la réaction générale à cette technologie a été plus mitigée. Une enquête de mars 2024 de la société d’analyse de données YouGov a révélé que « prudent » (54 %) et « préoccupé » (49 %) étaient les deux réponses les plus probables données par les citoyens américains lorsqu’on leur demandait ce qu’ils ressentaient face aux avancées de l’IA. La réglementation, comme nous l’avons vu avec la loi sur l’IA de l’UE, vise à apaiser ces craintes sans diminuer les avantages de la technologie.

« La loi sur l’IA de l’UE introduit un cadre réglementaire complet, horizontal et basé sur les risques, conçu pour protéger les citoyens tout en permettant l’innovation », déclare un expert. Elle divise les applications de l’IA en trois catégories de risque. Les applications comme le scoring social géré par le gouvernement, de type utilisé en Chine, sont interdites en raison de leur risque inacceptable. Deuxièmement, des outils comme les scanners CV pour les candidatures sont considérés comme à haut risque, tandis que d’autres restent sans impact.

Malgré les engagements supposés de la loi en faveur de l’innovation, tout le monde n’est pas convaincu. Peu après l’annonce de la loi, une enquête menée auprès de sociétés de capital-risque a révélé que 73 % s’attendaient à ce qu’elle réduise ou diminue considérablement la compétitivité des start-ups européennes dans le domaine de l’IA.

« Un équilibre doit être trouvé pour garantir que les entreprises européennes, et par conséquent l’Europe dans son ensemble, puissent prospérer », a déclaré une association représentant les secteurs du capital-investissement, du capital-risque et des infrastructures du continent en réponse. Certains soutiendraient qu’il n’a pas encore été trouvé.

La concurrence mondiale s’intensifie

L’ambition de l’Europe de mener le reste du monde en matière de réglementation de l’IA peut être louable, mais l’éthique et la valeur d’investissement ne sont pas nécessairement les mêmes. « Les entreprises en dehors de l’UE pourraient décider de ne plus déployer leurs technologies en Europe en raison de la réglementation », a déclaré un expert en gestion stratégique. « Nous voyons déjà aujourd’hui que le modèle Llama 3 de Meta n’est pas disponible dans l’UE. »

Si les entreprises évitent le marché européen, il est probable que les amendes potentielles pour non-conformité en soient la cause. Les violations des réglementations entraîneront des amendes allant de 7,5 millions d’euros à 35 millions d’euros, ou de 1 à 7 % du chiffre d’affaires annuel mondial de l’entreprise, selon le montant le plus élevé.

Il reste à voir si les États-Unis, ou moins probablement la Chine, suivront l’exemple de l’UE en adoptant une législation punitive sur l’IA. Certainement, pour l’instant, la loi sur l’IA de l’UE distingue le continent – ce qui pourrait en réalité attirer des investissements.

« Plutôt que d’essayer de rivaliser tête-à-tête avec les États-Unis ou la Chine uniquement en termes d’échelle ou de vitesse, le Plan d’action pour le continent IA place l’Europe sur une voie pour se tailler une niche distincte : l’IA éthique et centrée sur l’humain », ajoute l’expert. « Cela pourrait faire de l’IA fabriquée en Europe une marque de confiance, de sécurité et de qualité, surtout précieuse dans des secteurs sensibles comme la santé, l’éducation et les services publics. »

Pour obtenir une image plus claire de son impact probable, la loi sur l’IA de l’UE doit être vue dans son contexte plus large. Le Plan d’action pour le continent IA, auquel la loi est étroitement lié, vise à mobiliser des investissements publics et privés à grande échelle pour soutenir sa mise en œuvre. Cela inclut un financement pour les infrastructures, l’accès à des données de haute qualité, le développement numérique et les écosystèmes de recherche en IA. En avril, il a été révélé que 20 milliards d’euros de ce financement seront directement alloués à la création de nouvelles usines de gigafactories de supercalculateurs pour développer la prochaine génération de modèles IA.

Avancer vers l’avenir

L’UE doit sans aucun doute rattraper son retard. Un récent rapport de l’Université de Stanford a déclaré que 40 « modèles d’IA notables » avaient été produits par des institutions américaines au cours de la dernière année, contre 15 en Chine et seulement 3 en Europe. Un rapport antérieur de Stanford a même affirmé qu’aucun pays de l’UE ne figurait parmi les cinq premiers en matière de « vitalité de l’IA », une mesure couvrant les investissements privés, les brevets et la recherche.

Le Plan d’action pour le continent IA est une reconnaissance que l’UE doit attirer davantage d’investissements dans l’IA, mais elle le fera à sa manière. De nouvelles réglementations, plutôt que de freiner les investissements, pourraient apporter de la clarté par rapport à des marchés où la législation n’a pas encore été adoptée mais est probable. C’est pourquoi des exemples d’investissement en IA en Europe continuent, comme les 1,4 milliard d’euros que les entreprises d’IA en Europe centrale et de l’Est ont reçus entre 2023 et mi-2024.

« La loi sur l’IA, lorsqu’elle est associée au Plan d’action pour le continent IA, devient plus qu’un effort réglementaire : elle devient un modèle pour une innovation éthique et inclusive », déclare l’expert. « Si cela réussit, cette stratégie pourrait faire plus que guider l’Europe, elle pourrait façonner les normes mondiales, prouvant que l’innovation axée sur les valeurs n’est pas seulement possible, mais puissante. »

L’Europe n’a peut-être jamais un titan de l’IA natif à égaler OpenAI ou DeepSeek, mais cela ne signifie pas que l’innovation en IA ne peut pas émerger du continent. Ni cela ne signifie que les investisseurs devraient chercher ailleurs. L’investissement numérique sur le continent a continué après le RGPD, après tout. L’UE affirme toutes les bonnes choses concernant l’assurance que sa réglementation sur l’IA soutient plutôt qu’elle n’étouffe l’investissement. Maintenant est le moment d’agir.

Articles

Guide pratique pour une IA responsable pour les développeurs .NET

L'ère de l'intelligence artificielle (IA) est en cours, mais elle soulève des questions éthiques sur la confiance que l'on peut accorder aux systèmes d'IA. Cet article explore les six principes...

Directives du projet de loi sur l’IA de l’UE : évolutions en matière de droits d’auteur

Le projet de directive sur le Code de pratique de l'UE concernant les obligations des fournisseurs de modèles d'IA à usage général (GPAI) a été amélioré, offrant une voie de conformité structurée. Les...

Confiance client et conformité à l’ère de l’IA

L'intelligence artificielle promet une valeur considérable pour les marketeurs, mais cela ne sera possible que si elle est alimentée par des données de qualité collectées de manière responsable. Les...

L’IA au service de la gestion des risques dans le secteur bancaire

Dans le paysage bancaire complexe d'aujourd'hui, l'IA devient un moteur central de la gestion des risques, essentiel pour identifier les menaces et gérer la conformité. En Inde, où les attentes...

Loi californienne sur la transparence de l’IA : un tournant majeur pour l’innovation responsable

Les législateurs californiens ont fait les gros titres en adoptant une loi historique sur la transparence de l'IA, axée spécifiquement sur les "modèles de pointe". Cette législation vise à garantir la...

Bureau national de l’IA : autorité centrale pour la mise en œuvre de la législation européenne

Le gouvernement a désigné 15 autorités compétentes dans le cadre de la nouvelle loi sur l'IA de l'UE et a annoncé la création d'un Bureau national de l'IA d'ici le 2 août 2026. Ce bureau agira comme...

Défis de l’IA : Éviter les pièges juridiques et discriminatoires dans le recrutement

L'utilisation d'outils d'IA dans le processus de recrutement permet aux entreprises d'optimiser leurs processus, mais les employeurs doivent veiller à ce que les systèmes utilisés soient transparents...

Quatre piliers pour encadrer l’IA responsable dans les entreprises

Alors que l'IA générative transforme le fonctionnement des entreprises, il est crucial d'implémenter des garde-fous pour éviter des déploiements coûteux. Les quatre piliers de ces garde-fous incluent...

Concevoir une IA inclusive pour les marchés émergents

L'intelligence artificielle transforme notre monde à une vitesse fulgurante, mais ses bénéfices ne sont pas accessibles à tous. Il est crucial de concevoir des systèmes d'IA inclusifs qui tiennent...