Avons-nous vraiment besoin de régulation de l’IA ?

Aux États-Unis, les républicains de la Chambre des représentants ont ajouté une proposition de moratoire de 10 ans sur la régulation de l’IA à un important projet de loi sur les taxes. Pendant ce temps, l’UE souhaite déjà « revoir » la loi sur l’IA, ce qui pourrait l’affaiblir. Le Royaume-Uni, quant à lui, n’avance pas rapidement dans l’élaboration de nouvelles lois sur l’IA. Mais… et si cela n’était pas un problème ?

En fait, que se passerait-il si nous n’avions pas besoin de « réguler l’IA » ? Que se passerait-il si réguler quelque chose d’aussi amorphe que l’« IA » était comparable à essayer de réguler l’alphabet ?

C’est-à-dire que nous devrions d’abord nous concentrer sur les résultats, puis envisager s’il existe des lois qui couvrent déjà ces phénomènes.

Exemples de régulation

Voici quelques exemples :

Droit d’auteur – Il m’a réellement agacé pendant un certain temps d’apprendre qu’OpenAI avait formé ses modèles de langage sur Artificial Lawyer sans demander l’autorisation, tout comme la plupart des sites Web du monde !

Cependant, deux éléments m’ont quelque peu apaisé depuis : 1) OpenAI et d’autres sites d’IA comme Perplexity envoient du trafic vers mon site Web, et leur inclusion de références à AL peut être vue sous un angle positif, et 2) si vous demandez à ChatGPT un résumé d’un article dans un journal ou un blog, il résumera une partie de celui-ci, mais indiquera qu’il ne peut pas tout vous fournir, puis vous orientera vers le site source.

Dans ce cas, est-ce un problème ? Si ABC Corp. LLM commençait à copier et à reproduire sur demande des articles entiers de manière verbatim d’une entreprise médiatique, alors il s’agirait d’une violation du droit d’auteur – pur et simple. Il n’est pas nécessaire d’avoir une « loi sur l’IA » pour cela. Il en va de même pour la musique et les livres.

Une nouvelle fois, est-ce que cela me fait mal de voir quelqu’un créer un livre « faux » qui imite efficacement le style et le contenu d’un auteur célèbre en utilisant l’IA ? Oui. Mais, encore une fois, si M. ABC copie Harry Potter si étroitement que cela ressemble à une violation, alors vous pouvez parier que les voies traditionnelles seront ouvertes.

Sécurité et reconnaissance faciale

Maintenant, c’est le point qui m’a amené à soutenir la loi sur l’IA de l’UE lorsqu’elle est sortie. Je n’ai jamais été fan des dystopies décrites dans 1984 et Le Meilleur des Mondes – (bien que clairement certains voient ces livres comme des « guides pratiques » pour diriger un pays, plutôt que des avertissements sur ce qu’il faut éviter). L’interdiction d’utiliser l’IA pour une large gamme de choses qui pourraient empiéter sur nos vies semblait donc très sensée.

Cependant… l’IA n’est qu’un outil, une méthode, pour obtenir le résultat, par exemple, scanner le visage de tout le monde en montant dans un bus, même s’ils ne veulent pas que vous le fassiez. Est-ce que l’IA est responsable de cela, ou est-ce le gouvernement, la ville, la compagnie de bus, etc. qui a permis cela ?

Est-ce que l’« IA » est la cause de cela, ou est-ce le bureaucrate qui aime l’idée de pouvoir surveiller la population comme si nous n’étions qu’un groupe d’animaux de zoo ? Je dirais ce dernier. La reconnaissance faciale par l’IA n’est qu’un outil utilisé pour envahir nos vies, mais c’est une organisation qui décide de faire de telles choses.

Une loi contre la collecte de données faciales par des organisations en général suffirait, et il n’est donc pas nécessaire de s’en prendre à l’IA.

Et nous pouvons voir la même chose dans de nombreux autres domaines. Par exemple, devrions-nous autoriser des armes autonomes ? Eh bien, elles n’ont pas besoin d’être de l’IA. Un champ de mines n’est-il pas une arme autonome – vous marchez dessus, cela vous tue, sans poser de questions, sans règles suivies ? Un soldat avec un doigt qui démange en étant en mission sans aucune règle d’engagement est-il également assez similaire – et également un danger pour tous ? Encore une fois, est-ce l’outil, ou est-ce quelqu’un qui prend la décision que faire X d’une certaine manière est acceptable qui est en faute ?

Je ne prétends pas avoir les connaissances juridiques d’un juge de la Haute Cour, mais c’est ce qui semble évident d’un point de vue de bon sens. (Et ma réflexion peut bien évoluer à nouveau.) Que pensez-vous ?

Quoi qu’il en soit, le débat sur la régulation de l’IA est voué à se poursuivre… jusqu’à ce que quelque chose de plus grand que les LLMs arrive… Mais, il semble que nous abordions peut-être cela sans réfléchir aux réalités pratiques de la « régulation de l’IA ».

Conclusion

Un point supplémentaire concernant l’amendement américain. Le nouveau texte ajouté au projet de loi fiscal – qui, bien sûr, pourrait ne pas passer et donc ne pas devenir loi – comprend le libellé suivant, qui provient du Comité de l’énergie et du commerce :

« Le sous-article (c) stipule qu’aucun État ou subdivision politique ne peut appliquer de loi ou de réglementation régissant les modèles d’intelligence artificielle, les systèmes d’intelligence artificielle ou les systèmes de décision automatisés pendant la période de 10 ans commençant à la date de promulgation de cette loi.

Le sous-article (d) fournit des définitions pour les termes clés utilisés dans la loi, y compris « intelligence artificielle », « modèle d’intelligence artificielle », « système d’intelligence artificielle » et « système de décision automatisé ».

Et il convient de noter que cette définition de « l’IA » est si large qu’elle inclurait Google Search et également mon iPhone, qui prend automatiquement de nombreuses décisions pour moi, y compris l’assombrissement de l’écran après 22 heures.

Enfin, en ce qui concerne les avocats utilisant l’IA… encore une fois, n’y a-t-il pas déjà suffisamment de régulations à ce sujet ? Par exemple, lorsqu’un avocat remet à un client un document juridique qu’il a rédigé, n’existe-t-il pas déjà un devoir de diligence pour s’assurer que les faits de base sont corrects ? Où est-il écrit dans les règles du barreau qu’il est acceptable de mentir ? En d’autres termes, les anciennes règles fonctionnent toujours même lorsque nous ajoutons l’IA au mélange. Ce dont nous avons vraiment besoin, c’est de plus d’éducation sur la manière d’utiliser ces outils.

Articles

Un législateur de l’Utah à la tête d’une task force nationale sur l’IA

Un législateur de l'Utah a récemment été choisi pour diriger un groupe de travail national afin d'aider à orienter les politiques de l'intelligence artificielle au niveau des États. Le représentant...

La loi texane sur l’intelligence artificielle : un nouveau cadre réglementaire

Le gouverneur du Texas a signé la Texas Responsible Artificial Intelligence Governance Act (TRAIGA) en vertu de laquelle le Texas devient le deuxième État à adopter une réglementation complète sur...

La loi sur l’IA de l’UE entre en vigueur : ce qu’il faut savoir

L'Union européenne a mis en œuvre sa loi sur l'IA, qui introduit des classifications de risque pour les modèles d'intelligence artificielle. Les modèles d'IA présentant des risques inacceptables, tels...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

L’avenir incertain des politiques internationales sur l’IA

Depuis le début de 2025, la direction stratégique de la politique en matière d'intelligence artificielle (IA) s'est considérablement orientée vers la capacité des États-nations à "gagner la course...

Risques de conformité liés à l’intégration de l’IA

L'intelligence artificielle devient un élément essentiel des fonctions de conformité des entreprises, mais son intégration présente également des risques réglementaires et opérationnels. Les...

Gouvernance de l’IA : un défi urgent pour les entreprises

Selon une nouvelle recherche, 93 % des entreprises au Royaume-Uni utilisent aujourd'hui l'IA, mais la plupart manquent de cadres pour gérer ses risques. Seul sept pour cent ont intégré des cadres de...

Gouvernance des données : Les enjeux de l’Acte européen sur l’IA

La Loi sur l'intelligence artificielle de l'Union européenne propose un cadre pour réglementer l'IA, en particulier pour les systèmes à "haut risque". L'article 10 se concentre sur les données et la...

Lancement du Code de Pratique pour l’IA Générale : Nouvelles Perspectives

Le Code de pratique pour l'IA à usage général a été publié par la Commission européenne pour aider l'industrie à se conformer aux obligations de la loi sur l'IA en matière de sécurité, de transparence...