Réglementation de l’IA : entre innovation et sécurité

A bridge

Atténuer les risques liés à l’IA : approche douce, approche dure ou quelque chose entre les deux ?

Le développement de l’IA présente des risques importants, car les outils d’IA modernes franchissent des limites éthiques sous des cadres juridiques existants qui n’ont pas été conçus pour les intégrer. Cependant, la manière dont les régulateurs choisissent d’agir face à ces défis varie considérablement d’un pays à l’autre.

Le Sommet sur l’IA qui s’est tenu à Paris a mis en lumière ces différences réglementaires. Sa déclaration finale a mis l’accent sur l’inclusivité et l’ouverture dans le développement de l’IA tout en mentionnant de manière générale la sécurité et la fiabilité, sans accentuer des risques spécifiques liés à l’IA, tels que les menaces à la sécurité ou les dangers existentiels. Rédigée par 60 nations, cette déclaration n’a pas été signée par les États-Unis ni le Royaume-Uni, soulignant ainsi le manque de consensus dans ce domaine.

Comment différents régulateurs abordent les risques liés à l’IA

Les pays et régions adoptent des approches variées pour réguler le développement et le déploiement de l’IA. La plupart se situent entre les deux extrêmes, à savoir les États-Unis d’un côté et l’Union européenne de l’autre.

La méthode américaine : innover d’abord, réguler ensuite

Les États-Unis n’ont pas de lois fédérales régissant spécifiquement l’IA ; ils s’appuient plutôt sur des directives volontaires et des solutions basées sur le marché. Des lois clés incluent la Loi sur l’Initiative Nationale pour l’IA, qui vise à coordonner la recherche fédérale sur l’IA, et le cadre de gestion des risques du National Institute of Standards and Technology (NIST).

En octobre 2023, le président Biden a émis un décret exécutif sur une IA sûre, sécurisée et fiable, établissant des normes pour les infrastructures critiques, renforçant la cybersécurité alimentée par l’IA et régulant les projets financés par l’État. Cependant, le paysage réglementaire américain reste flou et sujet à des changements politiques. En janvier 2025, le président Trump a annulé le décret de Biden, signalant un éventuel changement vers la promotion de l’innovation plutôt que de la régulation.

Les critiques de l’approche américaine soulignent sa nature fragmentée, entraînant un réseau complexe de règles, un manque de normes contraignantes et des lacunes dans la protection de la vie privée. Néanmoins, l’approche laissez-faire des États-Unis pourrait évoluer. En 2024, presque 700 projets de loi sur l’IA ont été introduits, montrant que le gouvernement ne se dérobe pas à la régulation mais cherche des moyens de l’appliquer sans nuire à l’innovation.

La méthode de l’UE : approche préventive

En revanche, l’Union européenne a adopté une approche très différente. En août 2024, le Parlement européen et le Conseil ont introduit la Loi sur l’IA, considérée comme la réglementation la plus complète en matière d’IA à ce jour. Cette loi impose des règles strictes aux systèmes d’IA à hauts risques, tels que ceux utilisés dans la santé et les infrastructures critiques, tandis que les applications à faible risque font face à une supervision minimale. Certaines applications, comme les systèmes de notation sociale gérés par l’État, sont explicitement interdites.

À l’instar du RGPD, la loi impose la conformité non seulement aux frontières de l’UE mais aussi à tout fournisseur, distributeur ou utilisateur de systèmes d’IA opérant dans l’UE. Cela pourrait poser des défis pour les fournisseurs non européens. Les critiques de l’approche de l’UE incluent son incapacité à établir une norme d’excellence pour les droits humains, sa complexité excessive et ses exigences techniques strictes.

Un terrain d’entente réglementaire

Le Royaume-Uni a adopté un cadre « léger » entre l’UE et les États-Unis, basé sur des principes tels que la sécurité, l’équité et la transparence. Des régulateurs existants, comme le Bureau du Commissaire à l’information, sont habilités à appliquer ces principes.

En novembre 2023, le Royaume-Uni a fondé l’Institut de sécurité de l’IA (AISI), chargé d’évaluer la sécurité des modèles avancés d’IA et de promouvoir des normes internationales. Le gouvernement britannique a également publié un plan d’action sur les opportunités de l’IA, visant à investir dans les bases de l’IA et à favoriser les systèmes d’IA « nationaux ». Les critiques de cette approche incluent des capacités d’application limitées et un manque de coordination entre la législation sectorielle.

D’autres grands pays ont également trouvé leur place entre les approches des États-Unis et de l’UE. Le Canada a proposé la Loi sur l’IA et les données, qui vise à équilibrer innovation et sécurité. Le Japon a mis l’accent sur une approche « centrée sur l’humain », tandis que la Chine impose un contrôle strict de l’IA, en exigeant que les modèles d’IA soient conformes aux valeurs socialistes.

Établir une coopération internationale

À mesure que la technologie de l’IA continue d’évoluer, les différences entre les approches réglementaires deviendront plus évidentes. Quelle que soit l’approche adoptée par chaque pays concernant la protection des données, la propriété intellectuelle et d’autres aspects, un consensus mondial sur les risques clés liés à l’IA est nécessaire. La coopération internationale est essentielle pour établir des normes de base qui répondent aux risques clés tout en favorisant l’innovation.

Actuellement, des organisations mondiales comme l’OCDE et les Nations Unies travaillent à établir des normes internationales et des lignes directrices éthiques pour l’IA. L’avenir nécessite que tous les acteurs de l’industrie trouvent un terrain d’entente. Face à l’innovation qui progresse à grande vitesse, le moment de discuter et de parvenir à un accord est maintenant.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...