L’Intelligence Artificielle sous Régulation : Un Débat Crucial

A chess piece illustrating strategic decision-making in AI policy.

Critique de la Proposition de Trump sur la Réglementation de l’IA au Niveau des États

Le scientifique en chef de Microsoft a exprimé son désaccord avec le projet de loi de Donald Trump visant à interdire les réglementations sur l’intelligence artificielle (IA) au niveau des États. Selon lui, cette initiative pourrait entraver le développement de l’IA plutôt que de l’accélérer.

Dr. Eric Horvitz, ancien conseiller technologique de Joe Biden, soutient que l’interdiction de la réglementation pourrait « nous freiner » et nuire aux progrès réels tant dans l’avancement de la science de l’IA que dans son utilisation pratique.

Contexte et Propositions de Ban

Les commentaires de Horvitz interviennent alors que l’administration Trump propose un moratoire de dix ans empêchant les États-Unis de créer des lois limitant ou réglementant les modèles d’IA, les systèmes d’IA ou les outils de décision automatisés. Cette proposition découle des inquiétudes exprimées par la Maison Blanche quant à la possibilité que la Chine devienne le leader du développement de l’IA.

Des investisseurs technologiques tels qu’Andreessen Horowitz, un soutien précoce de Facebook, plaident également pour cette mesure. Ils estiment que les applications destinées aux consommateurs devraient être réglementées plutôt que les efforts de recherche.

Conflit entre Microsoft et JD Vance

Le vice-président JD Vance a exprimé des préoccupations similaires, avertissant que si l’Amérique ralentit le développement de l’IA pendant que la Chine avance à toute vitesse, les États-Unis pourraient se retrouver « esclaves d’une IA médiée par la Chine ».

Cependant, Horvitz adopte une perspective différente. Il s’inquiète déjà de l’utilisation de l’IA pour propager des désinformations et de son potentiel à être utilisée dans des activités malveillantes, en particulier dans le domaine des risques biologiques.

Importance de la Réglementation

Lors d’une réunion de l’Association pour l’Avancement de l’Intelligence Artificielle, il a souligné que les scientifiques doivent communiquer avec les agences gouvernementales pour expliquer pourquoi éviter complètement la réglementation serait contre-productif.

“Les directives, la réglementation… et les contrôles de fiabilité font partie de l’avancement du domaine, permettant à celui-ci de progresser plus rapidement de nombreuses manières”, a déclaré Horvitz.

Contradictions et Lobbying

Cette position crée une contradiction intéressante, étant donné que des rapports indiquent que Microsoft fait partie d’un effort de lobbying à Silicon Valley aux côtés de Google, Meta et Amazon pour soutenir l’interdiction de la réglementation étatique proposée par Trump.

Selon le Financial Times, Microsoft rejoint une initiative de lobbying exhortant le Sénat américain à approuver le moratoire de dix ans sur la législation étatique concernant l’IA. Ce moratoire est inclus dans le projet de loi budgétaire de Trump, qu’il souhaite faire adopter d’ici le Jour de l’Indépendance le 4 juillet.

Risques et Avenir de la Réglementation de l’IA

Le débat met en lumière les préoccupations croissantes concernant le développement non régulé de l’IA et ses risques potentiels catastrophiques pour l’humanité. Certains critiques craignent que les entreprises privilégient les profits à court terme au détriment de la sécurité.

Stuart Russell, professeur d’informatique à l’UC Berkeley, qui a également pris la parole lors du même séminaire que Horvitz, a soulevé des questions encore plus alarmantes. “Pourquoi permettrions-nous délibérément la sortie d’une technologie dont même ses créateurs disent qu’elle a une chance de 10% à 30% de provoquer l’extinction humaine ?” a-t-il demandé. “Nous n’accepterions jamais un tel niveau de risque pour une autre technologie.”

Conséquences du Débat en Cours

Les enjeux de ce débat sont énormes. Microsoft a investi 14 milliards de dollars dans OpenAI, la société derrière ChatGPT. Le PDG d’OpenAI, Sam Altman, a récemment fait des prédictions audacieuses sur l’avenir, suggérant que dans cinq à dix ans, nous verrons des « robots humains formidables » déambuler dans les rues pour accomplir diverses tâches.

Les prévisions concernant l’atteinte de l’intelligence générale artificielle (IGA), c’est-à-dire une IA équivalente à l’intelligence humaine, varient considérablement. Alors que le scientifique en chef de Meta, Yann LeCun, suggère que l’IGA pourrait être à des décennies, son patron Mark Zuckerberg a récemment annoncé un investissement de 15 milliards de dollars visant à atteindre la “superintelligence”.

Le moment de ce débat est crucial alors que le Congrès examine le projet de loi budgétaire de Trump. L’issue pourrait déterminer si les États conservent la capacité de réglementer le développement de l’IA sur leur territoire ou si de telles décisions resteront exclusivement au niveau fédéral pendant la prochaine décennie.

Microsoft a refusé de commenter la contradiction apparente entre la position publique de son scientifique en chef et ses efforts de lobbying rapportés, laissant des questions sur la véritable position de l’entreprise sur la réglementation de l’IA sans réponse.

Articles

Examiner les impacts de la Loi sur l’Intelligence Artificielle de l’UE

De nouvelles obligations découlant de la loi sur l'intelligence artificielle de l'UE concernant les modèles d'IA à usage général entreront en vigueur en août, avec d'autres obligations prévues pour...

L’Intelligence Artificielle sous Régulation : Un Débat Crucial

Le scientifique en chef de Microsoft, Dr. Eric Horvitz, critique la proposition de Donald Trump visant à interdire la réglementation de l'IA au niveau des États, affirmant que cela pourrait freiner le...

Pression américaine et régulation de l’IA : l’Europe doit agir maintenant

Scarcely six months after the world’s first comprehensive AI legislation entered into force, heads of state, CEOs from companies such as Google, Microsoft, and OpenAI gathered in Paris last February...

Réglementation des outils d’IA en santé : Défis et opportunités

Un nouveau rapport du Bipartisan Policy Center examine le paysage réglementaire complexe des outils d'IA en santé qui échappent à la juridiction de la FDA. Ce rapport souligne l'importance de...

Gouvernance de l’IA au Texas : Une Révolution Législative

Le 31 mai 2025, la législature du Texas a adopté la loi sur la gouvernance responsable de l'intelligence artificielle (TRAIGA), qui établit des exigences de divulgation pour les développeurs et...

Texas adopte une loi pionnière sur la gouvernance de l’IA responsable

Le 22 juin 2025, le gouverneur du Texas, Greg Abbott, a signé la loi sur la gouvernance responsable de l'IA au Texas (TRAIGA), marquant la fin d'un projet de loi qui a reçu une attention nationale...

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...