Réglementation de l’IA au Népal : Au-delà d’un projet de politique vague
Le paysage de la réglementation de l’intelligence artificielle (IA) au Népal soulève des questions cruciales sur les implications éthiques et la gouvernance. L’acquisition de logiciels d’IA par la police népalaise, couplée à la formation de son personnel, constitue un motif d’inquiétude. Alors que le pays avance dans le développement de sa politique d’IA, il est essentiel d’examiner les défis et les opportunités qui se présentent.
Le contexte international de la réglementation de l’IA
La réglementation de l’IA en Europe a fait un pas en avant significatif avec l’entrée en vigueur de l’EU AI Act en août 2024, qui établit des normes claires pour l’utilisation de l’IA. Ce cadre réglementaire inclut une approche basée sur le risque, interdisant certaines applications de l’IA, comme la reconnaissance faciale en temps réel dans les lieux publics, tout en permettant des exceptions pour les agences de la loi des États membres.
Malgré les critiques concernant les lacunes du règlement, l’Union européenne a mis en place des mécanismes pour garantir l’utilisation éthique de l’IA. Cela inclut des niveaux de risque qui interdisent les déploiements jugés inacceptables et la nécessité de réévaluer régulièrement les réglementations pour s’assurer qu’elles restent adaptées à une technologie en constante évolution.
Les lacunes de la politique d’IA au Népal
Le projet de politique d’IA récemment publié par le gouvernement népalais représente un pas positif, mais il manque de spécificités et de techniques concernant sa mise en œuvre. La politique doit être contextualisée avec l’urgence d’établir des lois solides en matière de protection des données et de confidentialité, ainsi qu’une infrastructure numérique adéquate, qui font encore défaut au pays.
La finalisation de la politique d’IA nécessite un cadre robuste, comme le suggèrent des groupes de défense des droits numériques. Cela inclut des garanties pour protéger les droits à la protection des données et à la confidentialité des utilisateurs et des développeurs d’IA.
La gouvernance de l’IA : Un défi à relever
Un aspect préoccupant du projet est le système de gouvernance proposé. La création d’un Conseil de Régulation de l’IA, présidé par le ministre de la Communication et de la Technologie de l’information, pourrait manquer d’efficacité. De nombreux conseils de haut niveau peinent à se réunir, ce qui soulève des questions sur leur impact réel.
En revanche, un Centre National de l’IA pourrait servir de gardien pour la législation future sur l’IA, en assurant une mise en œuvre adéquate des réglementations. À titre d’exemple, l’EU AI Act a établi un bureau puissant au sein de la Commission européenne, capable d’appliquer les lois sur l’IA avec des pouvoirs d’exécution étendus.
Les leçons à tirer des discussions internationales sur l’IA
Lors de l’événement RightsCon 2025, des discussions ont mis l’accent sur l’inclusivité, l’éthique et la responsabilité dans le développement de l’IA. La nécessité d’intégrer des perspectives variées, notamment celles de la société civile, est primordiale pour façonner des systèmes d’IA équitables. Des thèmes tels que l’IA pour l’action climatique et la gouvernance des ressources naturelles ont également été abordés.
Le rapport du Tony Blair Institute for Global Change, qui examine comment les leaders du Sud mondial peuvent élaborer des réglementations sur l’IA qui favorisent l’innovation, devrait également être pris en compte.
Vers une réglementation de l’IA au Népal
Pour que le Népal devienne un centre technologique émergent, il est impératif d’accélérer le développement d’un cadre réglementaire de l’IA. Cela doit être fondé sur des piliers solides de droits en matière de données et de confidentialité. En combinant des garde-fous éthiques avec une structure agile, le Népal peut concevoir un système qui assure la sécurité tout en respectant les droits humains.
En étudiant les pratiques mondiales et en les adaptant au contexte local, le Népal a la possibilité de mettre en place un cadre d’IA éthique et propice à l’innovation.
Toute utilisation d’outils d’IA par les agences d’État, y compris les forces de l’ordre, doit être suspendue jusqu’à l’établissement de ce cadre.