Atténuer les risques liés à l’IA : approche douce, approche dure ou quelque chose entre les deux ?
Le développement de l’IA présente des risques importants, car les outils d’IA modernes franchissent des limites éthiques sous des cadres juridiques existants qui n’ont pas été conçus pour les intégrer. Cependant, la manière dont les régulateurs choisissent d’agir face à ces défis varie considérablement d’un pays à l’autre.
Le Sommet sur l’IA qui s’est tenu à Paris a mis en lumière ces différences réglementaires. Sa déclaration finale a mis l’accent sur l’inclusivité et l’ouverture dans le développement de l’IA tout en mentionnant de manière générale la sécurité et la fiabilité, sans accentuer des risques spécifiques liés à l’IA, tels que les menaces à la sécurité ou les dangers existentiels. Rédigée par 60 nations, cette déclaration n’a pas été signée par les États-Unis ni le Royaume-Uni, soulignant ainsi le manque de consensus dans ce domaine.
Comment différents régulateurs abordent les risques liés à l’IA
Les pays et régions adoptent des approches variées pour réguler le développement et le déploiement de l’IA. La plupart se situent entre les deux extrêmes, à savoir les États-Unis d’un côté et l’Union européenne de l’autre.
La méthode américaine : innover d’abord, réguler ensuite
Les États-Unis n’ont pas de lois fédérales régissant spécifiquement l’IA ; ils s’appuient plutôt sur des directives volontaires et des solutions basées sur le marché. Des lois clés incluent la Loi sur l’Initiative Nationale pour l’IA, qui vise à coordonner la recherche fédérale sur l’IA, et le cadre de gestion des risques du National Institute of Standards and Technology (NIST).
En octobre 2023, le président Biden a émis un décret exécutif sur une IA sûre, sécurisée et fiable, établissant des normes pour les infrastructures critiques, renforçant la cybersécurité alimentée par l’IA et régulant les projets financés par l’État. Cependant, le paysage réglementaire américain reste flou et sujet à des changements politiques. En janvier 2025, le président Trump a annulé le décret de Biden, signalant un éventuel changement vers la promotion de l’innovation plutôt que de la régulation.
Les critiques de l’approche américaine soulignent sa nature fragmentée, entraînant un réseau complexe de règles, un manque de normes contraignantes et des lacunes dans la protection de la vie privée. Néanmoins, l’approche laissez-faire des États-Unis pourrait évoluer. En 2024, presque 700 projets de loi sur l’IA ont été introduits, montrant que le gouvernement ne se dérobe pas à la régulation mais cherche des moyens de l’appliquer sans nuire à l’innovation.
La méthode de l’UE : approche préventive
En revanche, l’Union européenne a adopté une approche très différente. En août 2024, le Parlement européen et le Conseil ont introduit la Loi sur l’IA, considérée comme la réglementation la plus complète en matière d’IA à ce jour. Cette loi impose des règles strictes aux systèmes d’IA à hauts risques, tels que ceux utilisés dans la santé et les infrastructures critiques, tandis que les applications à faible risque font face à une supervision minimale. Certaines applications, comme les systèmes de notation sociale gérés par l’État, sont explicitement interdites.
À l’instar du RGPD, la loi impose la conformité non seulement aux frontières de l’UE mais aussi à tout fournisseur, distributeur ou utilisateur de systèmes d’IA opérant dans l’UE. Cela pourrait poser des défis pour les fournisseurs non européens. Les critiques de l’approche de l’UE incluent son incapacité à établir une norme d’excellence pour les droits humains, sa complexité excessive et ses exigences techniques strictes.
Un terrain d’entente réglementaire
Le Royaume-Uni a adopté un cadre « léger » entre l’UE et les États-Unis, basé sur des principes tels que la sécurité, l’équité et la transparence. Des régulateurs existants, comme le Bureau du Commissaire à l’information, sont habilités à appliquer ces principes.
En novembre 2023, le Royaume-Uni a fondé l’Institut de sécurité de l’IA (AISI), chargé d’évaluer la sécurité des modèles avancés d’IA et de promouvoir des normes internationales. Le gouvernement britannique a également publié un plan d’action sur les opportunités de l’IA, visant à investir dans les bases de l’IA et à favoriser les systèmes d’IA « nationaux ». Les critiques de cette approche incluent des capacités d’application limitées et un manque de coordination entre la législation sectorielle.
D’autres grands pays ont également trouvé leur place entre les approches des États-Unis et de l’UE. Le Canada a proposé la Loi sur l’IA et les données, qui vise à équilibrer innovation et sécurité. Le Japon a mis l’accent sur une approche « centrée sur l’humain », tandis que la Chine impose un contrôle strict de l’IA, en exigeant que les modèles d’IA soient conformes aux valeurs socialistes.
Établir une coopération internationale
À mesure que la technologie de l’IA continue d’évoluer, les différences entre les approches réglementaires deviendront plus évidentes. Quelle que soit l’approche adoptée par chaque pays concernant la protection des données, la propriété intellectuelle et d’autres aspects, un consensus mondial sur les risques clés liés à l’IA est nécessaire. La coopération internationale est essentielle pour établir des normes de base qui répondent aux risques clés tout en favorisant l’innovation.
Actuellement, des organisations mondiales comme l’OCDE et les Nations Unies travaillent à établir des normes internationales et des lignes directrices éthiques pour l’IA. L’avenir nécessite que tous les acteurs de l’industrie trouvent un terrain d’entente. Face à l’innovation qui progresse à grande vitesse, le moment de discuter et de parvenir à un accord est maintenant.