Avons-nous vraiment besoin de régulation de l’IA ?

Aux États-Unis, les républicains de la Chambre des représentants ont ajouté une proposition de moratoire de 10 ans sur la régulation de l’IA à un important projet de loi sur les taxes. Pendant ce temps, l’UE souhaite déjà « revoir » la loi sur l’IA, ce qui pourrait l’affaiblir. Le Royaume-Uni, quant à lui, n’avance pas rapidement dans l’élaboration de nouvelles lois sur l’IA. Mais… et si cela n’était pas un problème ?

En fait, que se passerait-il si nous n’avions pas besoin de « réguler l’IA » ? Que se passerait-il si réguler quelque chose d’aussi amorphe que l’« IA » était comparable à essayer de réguler l’alphabet ?

C’est-à-dire que nous devrions d’abord nous concentrer sur les résultats, puis envisager s’il existe des lois qui couvrent déjà ces phénomènes.

Exemples de régulation

Voici quelques exemples :

Droit d’auteur – Il m’a réellement agacé pendant un certain temps d’apprendre qu’OpenAI avait formé ses modèles de langage sur Artificial Lawyer sans demander l’autorisation, tout comme la plupart des sites Web du monde !

Cependant, deux éléments m’ont quelque peu apaisé depuis : 1) OpenAI et d’autres sites d’IA comme Perplexity envoient du trafic vers mon site Web, et leur inclusion de références à AL peut être vue sous un angle positif, et 2) si vous demandez à ChatGPT un résumé d’un article dans un journal ou un blog, il résumera une partie de celui-ci, mais indiquera qu’il ne peut pas tout vous fournir, puis vous orientera vers le site source.

Dans ce cas, est-ce un problème ? Si ABC Corp. LLM commençait à copier et à reproduire sur demande des articles entiers de manière verbatim d’une entreprise médiatique, alors il s’agirait d’une violation du droit d’auteur – pur et simple. Il n’est pas nécessaire d’avoir une « loi sur l’IA » pour cela. Il en va de même pour la musique et les livres.

Une nouvelle fois, est-ce que cela me fait mal de voir quelqu’un créer un livre « faux » qui imite efficacement le style et le contenu d’un auteur célèbre en utilisant l’IA ? Oui. Mais, encore une fois, si M. ABC copie Harry Potter si étroitement que cela ressemble à une violation, alors vous pouvez parier que les voies traditionnelles seront ouvertes.

Sécurité et reconnaissance faciale

Maintenant, c’est le point qui m’a amené à soutenir la loi sur l’IA de l’UE lorsqu’elle est sortie. Je n’ai jamais été fan des dystopies décrites dans 1984 et Le Meilleur des Mondes – (bien que clairement certains voient ces livres comme des « guides pratiques » pour diriger un pays, plutôt que des avertissements sur ce qu’il faut éviter). L’interdiction d’utiliser l’IA pour une large gamme de choses qui pourraient empiéter sur nos vies semblait donc très sensée.

Cependant… l’IA n’est qu’un outil, une méthode, pour obtenir le résultat, par exemple, scanner le visage de tout le monde en montant dans un bus, même s’ils ne veulent pas que vous le fassiez. Est-ce que l’IA est responsable de cela, ou est-ce le gouvernement, la ville, la compagnie de bus, etc. qui a permis cela ?

Est-ce que l’« IA » est la cause de cela, ou est-ce le bureaucrate qui aime l’idée de pouvoir surveiller la population comme si nous n’étions qu’un groupe d’animaux de zoo ? Je dirais ce dernier. La reconnaissance faciale par l’IA n’est qu’un outil utilisé pour envahir nos vies, mais c’est une organisation qui décide de faire de telles choses.

Une loi contre la collecte de données faciales par des organisations en général suffirait, et il n’est donc pas nécessaire de s’en prendre à l’IA.

Et nous pouvons voir la même chose dans de nombreux autres domaines. Par exemple, devrions-nous autoriser des armes autonomes ? Eh bien, elles n’ont pas besoin d’être de l’IA. Un champ de mines n’est-il pas une arme autonome – vous marchez dessus, cela vous tue, sans poser de questions, sans règles suivies ? Un soldat avec un doigt qui démange en étant en mission sans aucune règle d’engagement est-il également assez similaire – et également un danger pour tous ? Encore une fois, est-ce l’outil, ou est-ce quelqu’un qui prend la décision que faire X d’une certaine manière est acceptable qui est en faute ?

Je ne prétends pas avoir les connaissances juridiques d’un juge de la Haute Cour, mais c’est ce qui semble évident d’un point de vue de bon sens. (Et ma réflexion peut bien évoluer à nouveau.) Que pensez-vous ?

Quoi qu’il en soit, le débat sur la régulation de l’IA est voué à se poursuivre… jusqu’à ce que quelque chose de plus grand que les LLMs arrive… Mais, il semble que nous abordions peut-être cela sans réfléchir aux réalités pratiques de la « régulation de l’IA ».

Conclusion

Un point supplémentaire concernant l’amendement américain. Le nouveau texte ajouté au projet de loi fiscal – qui, bien sûr, pourrait ne pas passer et donc ne pas devenir loi – comprend le libellé suivant, qui provient du Comité de l’énergie et du commerce :

« Le sous-article (c) stipule qu’aucun État ou subdivision politique ne peut appliquer de loi ou de réglementation régissant les modèles d’intelligence artificielle, les systèmes d’intelligence artificielle ou les systèmes de décision automatisés pendant la période de 10 ans commençant à la date de promulgation de cette loi.

Le sous-article (d) fournit des définitions pour les termes clés utilisés dans la loi, y compris « intelligence artificielle », « modèle d’intelligence artificielle », « système d’intelligence artificielle » et « système de décision automatisé ».

Et il convient de noter que cette définition de « l’IA » est si large qu’elle inclurait Google Search et également mon iPhone, qui prend automatiquement de nombreuses décisions pour moi, y compris l’assombrissement de l’écran après 22 heures.

Enfin, en ce qui concerne les avocats utilisant l’IA… encore une fois, n’y a-t-il pas déjà suffisamment de régulations à ce sujet ? Par exemple, lorsqu’un avocat remet à un client un document juridique qu’il a rédigé, n’existe-t-il pas déjà un devoir de diligence pour s’assurer que les faits de base sont corrects ? Où est-il écrit dans les règles du barreau qu’il est acceptable de mentir ? En d’autres termes, les anciennes règles fonctionnent toujours même lorsque nous ajoutons l’IA au mélange. Ce dont nous avons vraiment besoin, c’est de plus d’éducation sur la manière d’utiliser ces outils.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...