Pourquoi les véhicules autonomes ne devraient pas être étiquetés « IA à haut risque »
Bien qu’ils n’aient pas encore atteint le niveau des robotaxis entièrement sans conducteur, les véhicules autonomes supervisés sont désormais courants sur les routes. Une entreprise vend plus de véhicules autonomes dans le monde que toute autre société, génère des bénéfices grâce à ces ventes et acquiert simultanément d’énormes quantités de données de conduite sans coût supplémentaire. Ces données sont ensuite utilisées pour former et faire progresser son IA.
Contexte et législation
La position d’un pays en tant que leader mondial en densité de robots industriels repose en grande partie sur ses forces dans l’électronique et l’automobile. L’utilisation de robots dans la fabrication est plus élevée que dans tout autre pays. L’industrie entre maintenant dans une phase où l’IA et les robots construisent des véhicules, l’IA les fait fonctionner et les humains utilisent ces machines tout en payant pour l’utilisation de l’IA.
Une loi récente sur l’IA a été mise en vigueur, établissant un précédent mondial en réglementant les opérateurs d’IA dits à haut risque. Cependant, des inquiétudes croissantes persistent quant à la difficulté de déterminer objectivement ce qui constitue réellement une IA à haut risque dans la pratique.
Défis réglementaires
Le cadre proposé de réglementation des risques a été gravement affecté par l’émergence de systèmes d’IA à usage général, ce qui a perturbé l’approche initiale de réglementation sectorielle. Les systèmes d’IA à usage général créent un dilemme réglementaire, car leurs usages et leurs objectifs ne peuvent être définis à l’avance. En conséquence, l’accent a été mis sur l’imposition d’obligations de transparence et de sécurité aux développeurs dès la phase de conception.
Dans ce contexte, il est important de noter que les véhicules autonomes qui perçoivent leur environnement et circulent dans des situations de trafic réelles sont également une forme d’IA physique. L’intention de protéger les humains en classifiant ces technologies comme à haut risque est compréhensible, mais cela pourrait nuire à la compétitivité nationale si les véhicules autonomes sont réglementés en tant qu’entreprises à haut risque.
Réflexion sur l’avenir
Pour rivaliser avec d’autres entreprises, il est nécessaire de repenser ce qui constitue une IA à haut risque et comment ces risques doivent être réglementés. Une alternative pourrait être d’adopter un système similaire à celui d’autres pays, où les compagnies d’assurance indemnisent d’abord les victimes en cas d’accident de véhicule autonome, puis exercent leurs droits de recours.
Dans un environnement technologique en rapide évolution, il est crucial de soutenir le développement d’applications d’IA à haut risque plutôt que de les décourager par une réglementation prématurée.