Régulations mondiales sur l’IA et leur impact sur les leaders de l’industrie

Il existe une incertitude réglementaire significative dans la surveillance mondiale de l’IA, principalement en raison du paysage juridique fragmenté à travers les pays, ce qui entrave la gouvernance efficace des systèmes d’IA transnationaux. Par exemple, une étude de 2024 dans Nature souligne que l’absence de droit international harmonisé complique l’innovation en IA, rendant difficile pour les organisations de comprendre les normes applicables dans différentes juridictions.

L’absence de cadres robustes de gouvernance de l’IA et de gestion des risques expose les organisations à des risques opérationnels, éthiques et financiers. Le non-respect de ces régulations peut s’avérer coûteux : les amendes en vertu de la loi sur l’IA de l’UE peuvent atteindre jusqu’à 40 millions d’euros ou 7 % du chiffre d’affaires mondial pour des violations graves.

Gestion des risques liés à l’IA

Lors d’un épisode récent du podcast « AI in Business », il a été discuté de la manière dont les entreprises devraient gérer activement les risques croissants liés à l’IA en mettant en place des cadres de gouvernance, en définissant la tolérance au risque et en réduisant le risque d’agrégation grâce à la diversification des modèles et à l’ajustement spécifique des tâches.

Deux insights essentiels pour la gouvernance de l’IA

  • Établir la gouvernance et la responsabilité pour les risques liés à l’IA : Définir clairement la propriété des risques et mettre en œuvre des cadres de gouvernance pour gérer les erreurs inévitables de l’IA.
  • Gérer les risques liés à l’IA avec une stratégie de gouvernance et de modèle : Définir la tolérance au risque, mettre en œuvre des mesures d’atténuation au-delà des réglementations et diversifier les architectures de modèles pour réduire les biais systémiques et le risque d’agrégation.

Comparaison des approches réglementaires de l’UE et des États-Unis

Les différences entre les approches de l’UE et des États-Unis en matière de régulation de l’IA sont notables. L’UE crée des réglementations à l’avance, établissant des règles et des exigences claires avant que des problèmes ne surviennent, tandis que les États-Unis façonnent souvent leur approche par la litigation, où les affaires judiciaires établissent des précédents et des meilleures pratiques au fil du temps.

Pour les entreprises mondiales, cette différence signifie qu’elles doivent adapter les déploiements d’IA aux exigences de chaque juridiction, ce qui augmente les charges de conformité tout en encourageant une réflexion plus claire sur les risques.

Exemple de responsabilité

Un exemple cité est celui d’un passager ayant demandé à un chatbot alimenté par l’IA d’une compagnie aérienne des informations sur des politiques de réduction. Le modèle a halluciné une politique fictive, et le passager s’est fié à cette information, mais la compagnie aérienne a refusé de l’honorer. Le tribunal a jugé la compagnie responsable, même si elle n’avait pas construit le modèle.

Acceptation des erreurs de l’IA

Il est essentiel de reconnaître que les modèles d’IA, en particulier ceux basés sur la génération, sont des modèles probabilistes. Michael Berger, responsable de l’Insure AI chez Munich Re, souligne que ces modèles peuvent échouer à tout moment et que cela doit être accepté comme un risque inhérent.

Gestion des risques et stratégie de modèle

Les discussions sur l’IA ont évolué, reconnaissant que son potentiel s’accompagne toujours de risques qui doivent être gérés activement. Cela inclut la définition des niveaux de tolérance au risque, la mise en œuvre de mesures d’atténuation dépassant les exigences réglementaires et la prise en compte de l’assurance contre l’IA comme partie intégrante de la stratégie pour couvrir les responsabilités potentielles.

Le risque augmente au fur et à mesure que de nouveaux cas d’utilisation de l’IA sont développés et que des modèles interactifs sont mis en production. Chaque modèle supplémentaire peut introduire des erreurs ou des hallucinations, entraînant des coûts financiers ou des responsabilités.

Risques de discrimination systématique

Un autre aspect critique est le risque de discrimination. Si un modèle d’IA est biaisé, ce biais peut être appliqué de manière cohérente et à grande échelle, entraînant des discriminations systématiques qui affectent de larges groupes de personnes. C’est un changement significatif par rapport à la prise de décision humaine, où les cas de discrimination étaient moins systématiques.

Risque d’agrégation

Les entreprises doivent être conscientes du risque d’agrégation lors de la planification et du déploiement de l’IA, notamment lorsqu’elles utilisent des modèles fondamentaux pour des décisions ayant un impact sur les consommateurs. Les modèles plus petits et spécifiques à une tâche sont préférables d’un point de vue de risque, car leurs cas d’utilisation sont clairement définis et plus faciles à tester.

Michael Berger recommande d’envisager l’utilisation de différents modèles fondamentaux ou même de choisir intentionnellement une architecture de modèle légèrement moins puissante si elle est moins liée à celles utilisées ailleurs dans l’organisation pour des tâches similaires, car cela peut aider à réduire le risque d’agrégation tout en maintenant des performances adéquates.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...