Vers une législation éclairée sur l’IA en Thaïlande

A sturdy bridge

Une approche intelligente de la gouvernance de l’IA

La législation à venir vise à fournir une protection aux utilisateurs contre les risques potentiels de l’IA et à supprimer les barrières juridiques que les lois existantes ne peuvent pas résoudre. La Thaïlande a élaboré des principes pour la législation sur l’intelligence artificielle (IA) alors qu’elle cherche à établir un écosystème IA et à élargir son adoption.

L’Agence de développement des transactions électroniques (ETDA) a récemment achevé une audiovisuelle publique en ligne sur le projet et prévoit de le soumettre à l’examen du cabinet d’ici fin juillet.

Développement du cadre réglementaire de l’IA en Thaïlande

Selon un conseiller senior de l’ETDA, l’application des règles de l’IA a jusqu’à présent été basée sur des lois douces ou des directives. Une loi sur l’IA est nécessaire pour aider la Thaïlande à faire face efficacement aux impacts de cette technologie en évolution.

Depuis 2022, la Thaïlande a étudié des modèles mondiaux, en particulier le Règlement sur l’IA de l’UE, et a introduit deux projets de loi : l’un axé sur la réglementation des services commerciaux alimentés par l’IA, et l’autre sur la promotion de l’innovation en matière d’IA. Ces deux projets de loi seront combinés pour former la base de la loi sur l’IA.

Les deux projets adoptent un cadre basé sur les risques, classant les systèmes d’IA en catégories interdites, à haut risque et à usage général.

Les bénéfices de la loi sur l’IA

La législation vise à protéger les utilisateurs contre les risques potentiels de l’IA, établir des règles de gouvernance et supprimer les barrières juridiques que les lois existantes ne peuvent pas traiter, ce qui débloquera une adoption plus large de l’IA.

Par exemple, les réglementations actuelles du ministère des Transports ne soutiennent pas le déploiement de véhicules autonomes, car elles n’ont pas été conçues pour traiter un système non dirigé.

La nouvelle loi sur l’IA aidera à éliminer efficacement les obstacles réglementaires, permettant aux agences concernées de développer rapidement leurs propres lois organiques sur l’IA basées sur la loi principale.

Principes du projet de loi

Les principes se concentrent sur la supervision des risques de l’IA. La reconnaissance légale devrait être accordée aux actions et résultats produits par l’IA, et cette reconnaissance ne devrait pas être refusée uniquement parce qu’aucun humain n’est intervenu directement, sauf s’il existe une clause spécifique permettant de refuser cette reconnaissance.

Toutes les actions et résultats dérivés de l’IA doivent rester attribuables à des humains, soulignant que l’IA est un outil contrôlé par l’homme.

Les individus peuvent être exonérés légalement des actes ou contrats générés par l’IA dans les cas où la partie responsable de l’IA n’aurait pas pu raisonnablement prévoir le comportement de l’IA.

Autorité de supervision de l’application de la loi sur l’IA

Le Centre de gouvernance de l’IA de l’ETDA est censé coordonner les parties concernées concernant l’application de la loi. Les régulateurs existants dans tous les secteurs définiront et appliqueront des règles pour l’IA à haut risque dans leurs domaines.

Deux comités clés seront établis dans le cadre de la loi sur l’IA, le comité régulateur responsable de l’émission de cadres pratiques et de l’établissement de politiques en coordination avec les régulateurs sectoriels.

Réactions des entreprises face au projet de loi

Jusqu’au 20 juin, 80 organisations, y compris des géants comme Google et Microsoft, ont soumis des retours lors de l’audition publique récente. La majorité a salué le projet pour avoir trouvé un équilibre entre l’interdiction des utilisations nuisibles et la promotion de l’innovation.

Cependant, certaines préoccupations ont été soulevées concernant la préparation des régulateurs sectoriels à superviser efficacement l’IA.

Il est essentiel que la gouvernance de l’IA aille au-delà d’une seule dimension de risque, chaque industrie adoptant l’IA de manière fondamentalement différente, avec des degrés de risque variant selon la maturité de la technologie.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...