India Could Lead a Third Way in AI Geo-governance
Dans une course géo-technologique où chaque pays doté de capital humain qualifié et de ressources cherche à étendre son potentiel technologique, le paysage en évolution rapide de l’intelligence artificielle (IA) est une réponse inévitable. Cependant, cette course présente ses propres lignes de fracture, telles que des dilemmes éthiques, des lacunes réglementaires, des inégalités croissantes et le risque d’abus ou de conséquences non intentionnelles. Des pays comme la Chine, les États-Unis et l’Inde semblent avoir engagé une course aux armements en IA sans précédent.
Le secrétaire général des Nations Unies a averti que la menace de l’IA est comparable à celle de la guerre nucléaire, exprimant son inquiétude quant au potentiel de cette technologie à décider du sort de l’humanité. Cela crée une urgence pour une approche mondiale partagée et éthique, soutenue par des partenaires internationaux, afin de réguler l’utilisation irresponsable de l’IA par la coopération multilatérale.
Paysages réglementaires
La Chine est un concurrent mondial proche des États-Unis, ses modèles d’IA open-source représentant 30 % de l’utilisation mondiale. Dans cette course technologique, la Chine a progressivement élargi son savoir-faire bureaucratique et sa capacité réglementaire, créant un modèle dans lequel l’État est le principal preneur de risques.
Alors que les États-Unis visent maintenant à créer un cadre national pour l’IA, ils pourraient avoir du mal à l’adopter en raison de leur politique discordante à 50 États. En revanche, la Chine a développé la capacité logistique et l’infrastructure nécessaires pour mettre en œuvre une politique d’IA à l’échelle nationale. Les systèmes d’IA en Chine sont soumis à un contrôle préalable au déploiement, à des exigences d’enregistrement algorithmique et de traçabilité, ainsi qu’à des lignes de responsabilité claires.
L’UE comme norme
L’Union européenne a cherché à se positionner comme un norme-setter mondial à travers un cadre basé sur les risques et centré sur les droits. L’Acte sur l’IA de l’UE ne cherche pas un contrôle total mais catégorise les applications d’IA par risque, imposant des obligations strictes uniquement aux usages à haut risque comme la surveillance biométrique ou l’allocation des ressources.
Ce modèle reflète l’accent mis par l’Europe sur les droits de l’homme, la protection des données et la responsabilité juridique, même au prix d’une innovation plus lente. En revanche, le modèle américain est basé sur une approche axée sur le marché qui repose sur des normes volontaires et priorise l’innovation par rapport à la réglementation préventive.
Le Sud global et l’Inde
Le Sud global se trouve dans une position précaire à l’ère de l’IA, se limitant largement à être des preneurs de normes plutôt que des créateurs. L’Inde continue de s’appuyer sur la Loi sur les technologies de l’information de 2000 et les règles de protection des données personnelles numériques de 2025, qui sont insuffisantes pour traiter les risques fondamentaux liés à l’IA générative.
Choisir entre le modèle contrôlé de la Chine et l’approche dérégulée des États-Unis est une erreur analytique et limite stratégiquement l’Inde. Au lieu de cela, l’Inde doit poursuivre une troisième voie de transparence réglementée, combinant innovation et garanties crédibles.
Conclusion
La régulation de l’IA est fondamentalement une question de contrôle du pouvoir numérique sur les données, les algorithmes, les marchés et les citoyens. Si l’Inde retarde la réglementation au nom de l’innovation, elle risque de céder le contrôle à des plateformes étrangères et de devenir un terrain d’essai non régulé. Engager l’Inde dans des forums internationaux lui permettra d’influencer les normes sur la transparence, la sécurité et la responsabilité, tout en mettant en évidence sa capacité unique à promouvoir un cadre mondial d’IA axé sur le bien public.