La Loi sur l’IA et l’Industrie Automobile – Quelle direction prend la route ?
La loi sur l’IA ne se contente pas de favoriser les avancées technologiques qui rendent la conduite automatisée et assistée plus confortable, sûre et durable, elle introduit également une série de risques susceptibles d’impacter les droits et libertés des individus, notamment des préoccupations de sécurité significatives lors de son application sur la route.
La Loi sur l’IA de l’UE vise à répondre à ces risques. Bien que cette loi établisse des réglementations sectorielles neutres pour l’utilisation de l’IA, des développements futurs introduiront des lignes directrices spécifiques à l’industrie adaptées au secteur automobile.
La FAQ suivante fournit un aperçu initial de ce nouveau cadre réglementaire émergent, décrivant comment les développeurs et utilisateurs de l’IA dans l’automobile devront peut-être s’adapter.
En résumé, la Loi sur l’IA et les réglementations spécifiques à l’automobile à venir établiront de nouvelles exigences de conformité, marquant un changement transformateur dans la surveillance de l’IA à travers l’industrie.
Quel est le cadre juridique actuel pour l’IA dans l’industrie automobile ?
Les véhicules autonomes et automatisés (AV) dans l’UE sont soumis à une gamme de cadres réglementaires. Certains, comme le Règlement sur l’Approvisionnement en Type (TAFR) – englobant le Règlement (UE) 2018/858 et le Règlement (UE) 2019/2144 – se concentrent spécifiquement sur les normes automobiles, y compris l’approbation des véhicules et la surveillance du marché.
Ces réglementations sont soutenues par des normes internationales, telles que celles de la Commission Économique des Nations Unies pour l’Europe (UNECE), qui sont intégrées dans la législation de l’UE. Selon le TAFR, les véhicules doivent compléter un processus d’approbation de type pour garantir leur conformité avant d’être commercialisés.
Ensemble, ces réglementations veillent à ce que les véhicules respectent des normes de sécurité, environnementales et techniques à travers l’UE avant leur entrée sur le marché. Bien qu’elles couvrent des problèmes de sécurité traditionnels, y compris certains aspects de l’utilisation de l’IA, elles ne traitent actuellement pas explicitement des risques spécifiques à l’IA.
L’utilisation de l’IA dans l’industrie est également soumise à des règles qui ne sont pas spécifiques aux AV mais qui peuvent également être pertinentes. Par exemple, lorsque l’IA traite des données personnelles provenant de véhicules connectés, le RGPD s’applique, et les lois sur les droits d’auteur, qui régulent l’utilisation de contenu protégé par le droit d’auteur par l’IA, peuvent également être pertinentes.
En résumé, de multiples cadres juridiques existants régulent déjà l’utilisation de l’IA dans les produits et services automobiles. Cependant, il n’existe actuellement aucune réglementation exclusivement centrée sur l’IA. Cela est sur le point de changer.
Que régule la Loi sur l’IA ?
La Loi sur l’IA de l’UE est entrée en vigueur le 1er août 2024 et sera mise en œuvre sur une période de trois ans. Elle introduit une approche basée sur les risques pour réguler l’IA.
Les systèmes d’IA posant des risques inacceptables – tels que le scoring social ou certains types de surveillance en temps réel – sont prohibés.
Le Chapitre III aborde les systèmes d’IA à haut risque (HRAI), qui pourraient avoir des effets indésirables graves en cas de défaillance. Ces systèmes doivent répondre à des exigences strictes en matière de sécurité des données, de transparence, de supervision humaine et de robustesse, et subir une évaluation de conformité obligatoire avant leur entrée sur le marché, avec un suivi continu tout au long de leur cycle de vie.
Les applications dans des infrastructures critiques, telles que l’approvisionnement en énergie, les systèmes éducatifs, l’emploi et la justice, servent d’exemples privilégiés.
Certaines types d’IA nécessitent des mesures de transparence même si elles ne sont pas désignées comme à haut risque, par exemple, les utilisateurs doivent être informés lorsqu’ils interagissent avec un système d’IA, comme avec des chatbots ou d’autres applications interactives.
Les systèmes d’IA posant des risques très faibles pour les individus ou la société sont régis par des lignes directrices générales et des meilleures pratiques, sans exigences légales supplémentaires.
Comment cela affecte-t-il l’utilisation de l’IA dans l’industrie automobile ?
L’IA est de plus en plus intégrée dans les produits et services de l’industrie automobile. Dans les systèmes autonomes et d’assistance à la conduite, l’IA améliore l’intelligence, la sécurité et l’efficacité des véhicules en analysant des données provenant de divers scénarios de conduite pour prendre des décisions de conduite éclairées, apprendre des conditions de route et surveiller la forme physique et l’alerte du conducteur.
De plus, l’IA soutient des fonctions non liées à la sécurité, telles que les médias, l’accès et les services de paiement à l’intérieur des véhicules.
Le rôle de l’IA dans le contrôle des fonctionnalités du véhicule peut avoir un impact significatif sur les droits et libertés individuels. Les défaillances du système pourraient entraîner des accidents, des dommages matériels ou des blessures.
À première vue, la plupart des systèmes autonomes et d’assistance pilotés par l’IA devraient être classés comme HRAI, compte tenu de la nature critique de la prise de décision à l’intérieur du véhicule (ou « sur la route »). D’autres applications d’IA, comme les fonctionnalités de divertissement ou de commodité, peuvent relever de la classification LRAI.
Pour s’aligner sur les exigences spécifiques à l’industrie et les normes de sécurité harmonisées de l’UE, la Loi sur l’IA classe certains systèmes d’IA comme HRAI s’ils sont régis par d’autres législations d’harmonisation spécifiques (Article 2(2)), telles que le TAFR et le GPSR, qui imposent des évaluations de conformité et des approbations préalables. Cela s’applique à de nombreuses technologies liées à la sécurité dans les véhicules, mais selon les réglementations existantes, cela peut également s’appliquer à des composants, fonctions ou services dans le véhicule qui ne semblent pas suspects au premier abord si leur développement et leur commercialisation sont spécifiquement réglementés dans le TAFR (très complet).
Dans ces cas, la Loi sur l’IA ne s’appliquera pas directement.
Cette approche garantit que l’utilisation de l’IA spécifique à l’automobile reste principalement régulée par une législation sectorielle, tandis que les dispositions HRAI de la Loi sur l’IA serviront de normes complémentaires – bien que dominantes.
La Loi sur l’IA mandate au législateur de l’UE d’adapter les lois d’harmonisation de l’Union pour s’aligner sur les normes HRAI dans le TAFR et le GPSR (Article 80 ff). Ces règles intégreront les exigences HRAI adaptées aux besoins des automobiles, potentiellement y compris des « zones de régulation » pour l’innovation.
Les systèmes d’IA non réglementés qui ne sont pas soumis à une telle législation d’harmonisation de l’UE doivent continuer à être évalués en fonction des règles de la Loi sur l’IA et subir des évaluations de risque standard.
Quelles exigences de conformité pour les cas d’utilisation de l’IA verrons-nous dans l’industrie automobile ?
Bien que les spécificités des règlements TAFR et GPSR révisés liés à l’IA soient encore en attente, sans projets disponibles, les dispositions HRAI et LRAI dans la Loi sur l’IA fournissent une première indication des exigences réglementaires auxquelles l’industrie sera confrontée.
Dans le cadre de la classification à haut risque de la Loi sur l’IA, les entreprises doivent adopter une documentation, un suivi et des procédures d’atténuation des risques étendues dans le développement de l’IA. Cela inclut des tests rigoureux pour identifier et éliminer les biais potentiels, des journaux de transparence pour la traçabilité des décisions, et une assurance qualité complète tout au long du cycle de vie du véhicule.
De plus, des équipes dédiées, y compris des auditeurs externes, devront effectuer des évaluations de risque et assurer une conformité continue, rendant les exigences de la Loi sur l’IA techniquement complexes, coûteuses et exigeantes en ressources.
Tandis que les mises à jour sectorielles à venir pourraient clarifier les obligations de conformité pour les acteurs de l’automobile, il est incertain dans quelle mesure ces réglementations s’aligneront pleinement avec la Loi sur l’IA de l’UE, affectant potentiellement l’ensemble de la chaîne d’approvisionnement.
Les fabricants d’automobiles ne peuvent pas immédiatement mettre en œuvre les exigences de la Loi sur l’IA telles qu’elles sont, mais pourraient faire face à de nouvelles obligations de conformité liées aux normes TAFR révisées dès qu’elles seront disponibles. L’équilibre entre les exigences spécifiques du TAFR révisé pour les produits réglementés et les exigences générales de la Loi sur l’IA ajoutera de la complexité à l’adhésion à la réglementation de l’IA.
Les fournisseurs font face à un défi similaire. Comme les fabricants, ils sont pressés par le temps et, tout en attendant les détails révisés du TAFR, doivent préparer leurs offres d’IA pour répondre aux normes sectorielles anticipées sous les nouvelles réglementations dans un avenir proche.
Quel est l’impact sur les entreprises non européennes ?
La Loi sur l’IA s’applique largement aux systèmes d’IA introduits ou utilisés dans l’UE ou l’EEE, y compris les modèles à usage général, quel que soit l’emplacement du fournisseur. Cette portée s’étend aux opérateurs non-UE/EEE dont les résultats d’IA, tels que les prédictions ou recommandations, sont utilisés dans ces régions.
En conséquence, les entreprises non-UE doivent se conformer à la Loi sur l’IA si elles commercialisent des systèmes d’IA ou utilisent des résultats générés par l’IA dans l’UE.
Cette portée extraterritoriale exige de tout fabricant ou fournisseur de services automobiles entrant sur le marché de l’UE de faire face à des exigences réglementaires qui se chevauchent. Par exemple, une entreprise basée aux États-Unis peut devoir se conformer aux exigences strictes de l’IA à haut risque de l’UE tout en respectant également des réglementations différentes ou moins strictes dans son pays d’origine. Il en va de même pour, par exemple, les fabricants chinois entrant sur le marché de l’UE avec des produits principalement conçus pour répondre à leurs normes nationales.
De nombreuses entreprises peuvent choisir d’adopter les hauts standards de l’UE à l’échelle mondiale, conduisant potentiellement à une harmonisation progressive des normes de sécurité de l’IA à l’échelle mondiale si d’autres grands marchés s’alignent sur les principes de l’UE. Bien que cela favorise la cohérence réglementaire, cela augmente également les coûts et les délais de développement.