L’Intelligence Artificielle sous Régulation : Un Débat Crucial

A chess piece illustrating strategic decision-making in AI policy.

Critique de la Proposition de Trump sur la Réglementation de l’IA au Niveau des États

Le scientifique en chef de Microsoft a exprimé son désaccord avec le projet de loi de Donald Trump visant à interdire les réglementations sur l’intelligence artificielle (IA) au niveau des États. Selon lui, cette initiative pourrait entraver le développement de l’IA plutôt que de l’accélérer.

Dr. Eric Horvitz, ancien conseiller technologique de Joe Biden, soutient que l’interdiction de la réglementation pourrait « nous freiner » et nuire aux progrès réels tant dans l’avancement de la science de l’IA que dans son utilisation pratique.

Contexte et Propositions de Ban

Les commentaires de Horvitz interviennent alors que l’administration Trump propose un moratoire de dix ans empêchant les États-Unis de créer des lois limitant ou réglementant les modèles d’IA, les systèmes d’IA ou les outils de décision automatisés. Cette proposition découle des inquiétudes exprimées par la Maison Blanche quant à la possibilité que la Chine devienne le leader du développement de l’IA.

Des investisseurs technologiques tels qu’Andreessen Horowitz, un soutien précoce de Facebook, plaident également pour cette mesure. Ils estiment que les applications destinées aux consommateurs devraient être réglementées plutôt que les efforts de recherche.

Conflit entre Microsoft et JD Vance

Le vice-président JD Vance a exprimé des préoccupations similaires, avertissant que si l’Amérique ralentit le développement de l’IA pendant que la Chine avance à toute vitesse, les États-Unis pourraient se retrouver « esclaves d’une IA médiée par la Chine ».

Cependant, Horvitz adopte une perspective différente. Il s’inquiète déjà de l’utilisation de l’IA pour propager des désinformations et de son potentiel à être utilisée dans des activités malveillantes, en particulier dans le domaine des risques biologiques.

Importance de la Réglementation

Lors d’une réunion de l’Association pour l’Avancement de l’Intelligence Artificielle, il a souligné que les scientifiques doivent communiquer avec les agences gouvernementales pour expliquer pourquoi éviter complètement la réglementation serait contre-productif.

“Les directives, la réglementation… et les contrôles de fiabilité font partie de l’avancement du domaine, permettant à celui-ci de progresser plus rapidement de nombreuses manières”, a déclaré Horvitz.

Contradictions et Lobbying

Cette position crée une contradiction intéressante, étant donné que des rapports indiquent que Microsoft fait partie d’un effort de lobbying à Silicon Valley aux côtés de Google, Meta et Amazon pour soutenir l’interdiction de la réglementation étatique proposée par Trump.

Selon le Financial Times, Microsoft rejoint une initiative de lobbying exhortant le Sénat américain à approuver le moratoire de dix ans sur la législation étatique concernant l’IA. Ce moratoire est inclus dans le projet de loi budgétaire de Trump, qu’il souhaite faire adopter d’ici le Jour de l’Indépendance le 4 juillet.

Risques et Avenir de la Réglementation de l’IA

Le débat met en lumière les préoccupations croissantes concernant le développement non régulé de l’IA et ses risques potentiels catastrophiques pour l’humanité. Certains critiques craignent que les entreprises privilégient les profits à court terme au détriment de la sécurité.

Stuart Russell, professeur d’informatique à l’UC Berkeley, qui a également pris la parole lors du même séminaire que Horvitz, a soulevé des questions encore plus alarmantes. “Pourquoi permettrions-nous délibérément la sortie d’une technologie dont même ses créateurs disent qu’elle a une chance de 10% à 30% de provoquer l’extinction humaine ?” a-t-il demandé. “Nous n’accepterions jamais un tel niveau de risque pour une autre technologie.”

Conséquences du Débat en Cours

Les enjeux de ce débat sont énormes. Microsoft a investi 14 milliards de dollars dans OpenAI, la société derrière ChatGPT. Le PDG d’OpenAI, Sam Altman, a récemment fait des prédictions audacieuses sur l’avenir, suggérant que dans cinq à dix ans, nous verrons des « robots humains formidables » déambuler dans les rues pour accomplir diverses tâches.

Les prévisions concernant l’atteinte de l’intelligence générale artificielle (IGA), c’est-à-dire une IA équivalente à l’intelligence humaine, varient considérablement. Alors que le scientifique en chef de Meta, Yann LeCun, suggère que l’IGA pourrait être à des décennies, son patron Mark Zuckerberg a récemment annoncé un investissement de 15 milliards de dollars visant à atteindre la “superintelligence”.

Le moment de ce débat est crucial alors que le Congrès examine le projet de loi budgétaire de Trump. L’issue pourrait déterminer si les États conservent la capacité de réglementer le développement de l’IA sur leur territoire ou si de telles décisions resteront exclusivement au niveau fédéral pendant la prochaine décennie.

Microsoft a refusé de commenter la contradiction apparente entre la position publique de son scientifique en chef et ses efforts de lobbying rapportés, laissant des questions sur la véritable position de l’entreprise sur la réglementation de l’IA sans réponse.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...