Régulations mondiales sur l’IA et leur impact sur les leaders de l’industrie
Il existe une incertitude réglementaire significative dans la surveillance mondiale de l’IA, principalement en raison du paysage juridique fragmenté à travers les pays, ce qui entrave la gouvernance efficace des systèmes d’IA transnationaux. Par exemple, une étude de 2024 dans Nature souligne que l’absence de droit international harmonisé complique l’innovation en IA, rendant difficile pour les organisations de comprendre les normes applicables dans différentes juridictions.
L’absence de cadres robustes de gouvernance de l’IA et de gestion des risques expose les organisations à des risques opérationnels, éthiques et financiers. Le non-respect de ces régulations peut s’avérer coûteux : les amendes en vertu de la loi sur l’IA de l’UE peuvent atteindre jusqu’à 40 millions d’euros ou 7 % du chiffre d’affaires mondial pour des violations graves.
Gestion des risques liés à l’IA
Lors d’un épisode récent du podcast « AI in Business », il a été discuté de la manière dont les entreprises devraient gérer activement les risques croissants liés à l’IA en mettant en place des cadres de gouvernance, en définissant la tolérance au risque et en réduisant le risque d’agrégation grâce à la diversification des modèles et à l’ajustement spécifique des tâches.
Deux insights essentiels pour la gouvernance de l’IA
- Établir la gouvernance et la responsabilité pour les risques liés à l’IA : Définir clairement la propriété des risques et mettre en œuvre des cadres de gouvernance pour gérer les erreurs inévitables de l’IA.
- Gérer les risques liés à l’IA avec une stratégie de gouvernance et de modèle : Définir la tolérance au risque, mettre en œuvre des mesures d’atténuation au-delà des réglementations et diversifier les architectures de modèles pour réduire les biais systémiques et le risque d’agrégation.
Comparaison des approches réglementaires de l’UE et des États-Unis
Les différences entre les approches de l’UE et des États-Unis en matière de régulation de l’IA sont notables. L’UE crée des réglementations à l’avance, établissant des règles et des exigences claires avant que des problèmes ne surviennent, tandis que les États-Unis façonnent souvent leur approche par la litigation, où les affaires judiciaires établissent des précédents et des meilleures pratiques au fil du temps.
Pour les entreprises mondiales, cette différence signifie qu’elles doivent adapter les déploiements d’IA aux exigences de chaque juridiction, ce qui augmente les charges de conformité tout en encourageant une réflexion plus claire sur les risques.
Exemple de responsabilité
Un exemple cité est celui d’un passager ayant demandé à un chatbot alimenté par l’IA d’une compagnie aérienne des informations sur des politiques de réduction. Le modèle a halluciné une politique fictive, et le passager s’est fié à cette information, mais la compagnie aérienne a refusé de l’honorer. Le tribunal a jugé la compagnie responsable, même si elle n’avait pas construit le modèle.
Acceptation des erreurs de l’IA
Il est essentiel de reconnaître que les modèles d’IA, en particulier ceux basés sur la génération, sont des modèles probabilistes. Michael Berger, responsable de l’Insure AI chez Munich Re, souligne que ces modèles peuvent échouer à tout moment et que cela doit être accepté comme un risque inhérent.
Gestion des risques et stratégie de modèle
Les discussions sur l’IA ont évolué, reconnaissant que son potentiel s’accompagne toujours de risques qui doivent être gérés activement. Cela inclut la définition des niveaux de tolérance au risque, la mise en œuvre de mesures d’atténuation dépassant les exigences réglementaires et la prise en compte de l’assurance contre l’IA comme partie intégrante de la stratégie pour couvrir les responsabilités potentielles.
Le risque augmente au fur et à mesure que de nouveaux cas d’utilisation de l’IA sont développés et que des modèles interactifs sont mis en production. Chaque modèle supplémentaire peut introduire des erreurs ou des hallucinations, entraînant des coûts financiers ou des responsabilités.
Risques de discrimination systématique
Un autre aspect critique est le risque de discrimination. Si un modèle d’IA est biaisé, ce biais peut être appliqué de manière cohérente et à grande échelle, entraînant des discriminations systématiques qui affectent de larges groupes de personnes. C’est un changement significatif par rapport à la prise de décision humaine, où les cas de discrimination étaient moins systématiques.
Risque d’agrégation
Les entreprises doivent être conscientes du risque d’agrégation lors de la planification et du déploiement de l’IA, notamment lorsqu’elles utilisent des modèles fondamentaux pour des décisions ayant un impact sur les consommateurs. Les modèles plus petits et spécifiques à une tâche sont préférables d’un point de vue de risque, car leurs cas d’utilisation sont clairement définis et plus faciles à tester.
Michael Berger recommande d’envisager l’utilisation de différents modèles fondamentaux ou même de choisir intentionnellement une architecture de modèle légèrement moins puissante si elle est moins liée à celles utilisées ailleurs dans l’organisation pour des tâches similaires, car cela peut aider à réduire le risque d’agrégation tout en maintenant des performances adéquates.