AI est nouveau — les lois qui le régissent n’ont pas à l’être
Le gouverneur de la Virginie, Glenn Youngkin, a récemment veto le House Bill 2094, la loi sur les développeurs et déployeurs d’intelligence artificielle à haut risque. Ce projet de loi aurait établi un cadre juridique large pour l’IA, ajoutant des restrictions à son développement et à ses résultats expressifs, ce qui, s’il avait été adopté, serait entré en collision directe avec le Premier Amendement.
Ce veto s’inscrit dans une série de revers pour un mouvement à travers plusieurs États visant à réglementer le développement de l’IA, qui a débuté avec un groupe de travail formé l’année dernière. En février, ce groupe s’est démantelé, ce qui indique davantage de turbulences dans une initiative réglementaire autrefois montante.
Bien que les lois existantes puissent être appliquées avec prudence ou non, la tendance émergente vers une législation réfléchie est prometteuse pour l’avenir entrelacé de l’IA et de la liberté d’expression.
Le paysage réglementaire
L’IA offre la promesse d’une nouvelle ère de génération de connaissances et d’expression. Ces développements surviennent à un moment critique alors que le développement de l’IA continue d’avancer vers cette vision. Les entreprises mettent à jour leurs modèles à un rythme élevé, comme le montre le nouvel outil de génération d’images d’OpenAI.
Les intérêts public et politique, alimentés par la fascination et la peur, pourraient continuer à s’intensifier au cours des prochaines années, période pendant laquelle l’IA, encore émergente, restera vulnérable aux menaces de nouvelles réglementations. Des experts, comme Dean W. Ball, prédisent que 2025 et 2026 pourraient représenter les deux dernières années pour instaurer des lois qui seront en place avant que les systèmes d’IA dotés de capacités transformantes soient libérés.
Avec le développement rapide de l’IA comme toile de fond, les États se sont précipités pour proposer de nouveaux cadres juridiques, espérant aligner le décollage de l’IA avec les objectifs politiques des États. L’année dernière, environ 700 projets de loi liés à l’IA ont été introduits, couvrant tout, des deepfakes à l’utilisation de l’IA dans les élections. Cette année, ce chiffre approche déjà les 900.
Le TRAIGA (Texas Responsible Artificial Intelligence Governance Act) du Texas est l’exemple le plus médiatisé de la vague actuelle de projets de loi restrictifs sur l’IA. Ce projet de loi, sponsorisé par le représentant républicain Giovanni Capriglione, impose une responsabilité aux développeurs d’IA qui pourraient introduire un risque de discrimination algorithmique.
Une alternative plus modeste
Une approche différente semble prendre racine dans le Connecticut. L’année dernière, le gouverneur Ned Lamont a signalé qu’il mettrait son veto à un projet de loi similaire à celui du Colorado. Il a noté qu’il était important de savoir ce que l’on réglemente et de le faire de manière stricte.
Les lois anti-discrimination existantes pourraient déjà s’appliquer à l’utilisation de l’IA dans des domaines pertinents tels que le logement et l’emploi. Cela reflète un point important : la trajectoire de l’IA est largement imprévisible, et les règles imposées aujourd’hui pourraient affecter cette technologie émergente d’une manière difficile à inverser.
Le FIRE (Foundation for Individual Rights in Education) ne préconise pas de voie particulière, mais souligne l’importance d’une approche plus retenue. Essayer de résoudre tous les problèmes théoriques de l’IA avant de bien en cerner les contours est non seulement impratique, mais risque de freiner l’innovation et l’expression.
En conclusion, la sagesse pourrait résider dans la patience. Permettre aux lois existantes de faire leur travail et éviter des restrictions précoces pourrait offrir un cadre juridique établi et prévisible pour les développeurs et utilisateurs d’IA.