Réguler l’IA : Au-delà de la peur et du contrôle centralisé

A compass

Richard Sutton met en garde contre le “contrôle centralisé” de la régulation de l’IA

Lors d’une conférence, Richard Sutton, lauréat du prix Turing, a exprimé des préoccupations concernant les approches de régulation de l’IA basées sur la peur. Il soutient que les humains devraient considérer l’intelligence artificielle (IA) avec courage, fierté et sensation d’aventure.

Coopération décentralisée

Sutton a plaidé pour une coopération décentralisée, où les individus ou les machines poursuivent des objectifs différents mais avec un bénéfice mutuel. Il a fait valoir que des appels à un contrôle centralisé de l’IA rappellent des tentatives de contrôle des individus, tels que la réglementation de la parole, les tarifs douaniers et les sanctions économiques.

“Il y a de nombreux appels au contrôle centralisé de l’IA”, a-t-il déclaré. “Des lettres pour suspendre l’IA, ou pour les aligner sur les objectifs des gens, limitent la puissance des ordinateurs de l’IA, et bien sûr, la sûreté est un problème majeur.”

Un avenir inévitable

Sutton a affirmé que la création d’une intelligence humaine est inévitable. Selon lui, une part du rôle des humains dans l’univers est de créer des machines intelligentes qui, à leur tour, conçoivent de nouvelles choses.

Il a estimé que les chances de développer quelque chose ressemblant à une intelligence générale artificielle (AGI) d’ici 2030 sont d’une sur quatre, et d’une sur deux d’ici 2040. Sutton travaille également comme scientifique chercheur chez Keen Technologies, où il se concentre sur l’intelligence humaine.

Époque de l’expérience

Sutton a déclaré que nous entrons dans une nouvelle ère de l’IA où les modèles apprendront principalement de leurs propres expériences, plutôt que d’apprendre à partir de données humaines. Actuellement, les modèles d’IA sont formés sur des données générées par des humains, mais la prochaine étape consiste à entraîner des modèles d’IA à apprendre par leurs propres perceptions.

“C’est une prédiction, mais je pense que l’ère de l’expérience sera beaucoup plus puissante,” a-t-il ajouté.

Conséquences de la régulation de l’IA

Malgré le ton existentiel de son discours, Sutton a souligné que l’IA ne devrait pas être considérée comme quelque chose de nouveau ou d’aliénant. Il a dit que les philosophes cherchent à comprendre l’intelligence humaine depuis des milliers d’années, et que l’IA n’est qu’une continuation de cette quête.

Il a également mis en garde contre la tendance à considérer l’IA comme un bouc émissaire pour les problèmes du monde, et a exprimé sa déception envers les chercheurs qui alimentent cette perception négative de l’IA.

Régulations globales

Les règles autour de l’IA commencent à se dessiner à l’échelle mondiale, avec l’Union européenne introduisant l’AI Act pour interdire certaines applications nuisibles de la technologie. Au Canada, la législation initiale sur l’IA, connue sous le nom de Artificial Intelligence and Data Act, n’a pas encore été adoptée.

“Le potentiel remarquable de l’IA s’étend à presque tous les secteurs de notre société,” a déclaré un responsable lors de la conférence, soulignant ainsi la nécessité d’une action stratégique réfléchie et intentionnelle.

Articles

L’illusion de l’IA : Quand la rapidité mène à la négligence

Dans un monde obsédé par des résultats plus rapides et moins chers, l'IA a rendu le concept de « suffisant » très tentant en matière de conformité. Cependant, la conformité n'est pas une course...

Nouveau Code de Pratique pour l’IA Générale en Europe

Le 10 juillet 2025, la Commission européenne a publié la version finale du Code de pratique sur l'IA à usage général, trois semaines avant l'entrée en vigueur des obligations relatives aux modèles...

Code de conformité de l’UE pour l’IA : une nouvelle ère pour les entreprises

L'Union européenne a publié un nouveau code de pratique volontaire pour aider les entreprises à se conformer à la prochaine loi sur l'IA, qui régira l'utilisation de l'IA dans les 27 États membres. Ce...

Responsabilité et transparence : repenser l’approvisionnement en IA dans les gouvernements

En 2018, le public a appris que le département de police de la Nouvelle-Orléans utilisait un logiciel de police prédictive de Palantir pour décider où envoyer des agents. Cette situation a mis en...

Cadre SAIL : La nouvelle référence en sécurité pour l’IA

Pillar Security a codifié un cadre de sécurité AI qui représente une avancée significative dans les efforts de l'industrie pour assurer des opérations sécurisées pour l'IA. Ce cadre, connu sous le nom...

Gouvernance de l’IA : Tokio Marine fixe les règles du jeu

Tokio Marine Holdings a introduit un cadre de gouvernance de l'IA pour guider le développement et l'utilisation de l'intelligence artificielle au sein de ses entreprises. La politique met l'accent sur...

L’essor de l’IA clandestine et la nécessité d’une gouvernance agile

L'intelligence artificielle générative (GenAI) est déjà profondément intégrée dans les entreprises, souvent sans approbation ni contrôle formel. Cela a conduit à ce que l'on appelle l'IA de l'ombre...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...

Fragmentation et Capture : Défis de la Régulation de l’IA

Dans cette recherche récente, Filippo Lancieri, Laura Edelson et Stefan Bechtold explorent comment l'économie politique de la réglementation de l'intelligence artificielle est façonnée par le...