Régulations mondiales sur l’IA et leur impact sur les leaders de l’industrie

Il existe une incertitude réglementaire significative dans la surveillance mondiale de l’IA, principalement en raison du paysage juridique fragmenté à travers les pays, ce qui entrave la gouvernance efficace des systèmes d’IA transnationaux. Par exemple, une étude de 2024 dans Nature souligne que l’absence de droit international harmonisé complique l’innovation en IA, rendant difficile pour les organisations de comprendre les normes applicables dans différentes juridictions.

L’absence de cadres robustes de gouvernance de l’IA et de gestion des risques expose les organisations à des risques opérationnels, éthiques et financiers. Le non-respect de ces régulations peut s’avérer coûteux : les amendes en vertu de la loi sur l’IA de l’UE peuvent atteindre jusqu’à 40 millions d’euros ou 7 % du chiffre d’affaires mondial pour des violations graves.

Gestion des risques liés à l’IA

Lors d’un épisode récent du podcast « AI in Business », il a été discuté de la manière dont les entreprises devraient gérer activement les risques croissants liés à l’IA en mettant en place des cadres de gouvernance, en définissant la tolérance au risque et en réduisant le risque d’agrégation grâce à la diversification des modèles et à l’ajustement spécifique des tâches.

Deux insights essentiels pour la gouvernance de l’IA

  • Établir la gouvernance et la responsabilité pour les risques liés à l’IA : Définir clairement la propriété des risques et mettre en œuvre des cadres de gouvernance pour gérer les erreurs inévitables de l’IA.
  • Gérer les risques liés à l’IA avec une stratégie de gouvernance et de modèle : Définir la tolérance au risque, mettre en œuvre des mesures d’atténuation au-delà des réglementations et diversifier les architectures de modèles pour réduire les biais systémiques et le risque d’agrégation.

Comparaison des approches réglementaires de l’UE et des États-Unis

Les différences entre les approches de l’UE et des États-Unis en matière de régulation de l’IA sont notables. L’UE crée des réglementations à l’avance, établissant des règles et des exigences claires avant que des problèmes ne surviennent, tandis que les États-Unis façonnent souvent leur approche par la litigation, où les affaires judiciaires établissent des précédents et des meilleures pratiques au fil du temps.

Pour les entreprises mondiales, cette différence signifie qu’elles doivent adapter les déploiements d’IA aux exigences de chaque juridiction, ce qui augmente les charges de conformité tout en encourageant une réflexion plus claire sur les risques.

Exemple de responsabilité

Un exemple cité est celui d’un passager ayant demandé à un chatbot alimenté par l’IA d’une compagnie aérienne des informations sur des politiques de réduction. Le modèle a halluciné une politique fictive, et le passager s’est fié à cette information, mais la compagnie aérienne a refusé de l’honorer. Le tribunal a jugé la compagnie responsable, même si elle n’avait pas construit le modèle.

Acceptation des erreurs de l’IA

Il est essentiel de reconnaître que les modèles d’IA, en particulier ceux basés sur la génération, sont des modèles probabilistes. Michael Berger, responsable de l’Insure AI chez Munich Re, souligne que ces modèles peuvent échouer à tout moment et que cela doit être accepté comme un risque inhérent.

Gestion des risques et stratégie de modèle

Les discussions sur l’IA ont évolué, reconnaissant que son potentiel s’accompagne toujours de risques qui doivent être gérés activement. Cela inclut la définition des niveaux de tolérance au risque, la mise en œuvre de mesures d’atténuation dépassant les exigences réglementaires et la prise en compte de l’assurance contre l’IA comme partie intégrante de la stratégie pour couvrir les responsabilités potentielles.

Le risque augmente au fur et à mesure que de nouveaux cas d’utilisation de l’IA sont développés et que des modèles interactifs sont mis en production. Chaque modèle supplémentaire peut introduire des erreurs ou des hallucinations, entraînant des coûts financiers ou des responsabilités.

Risques de discrimination systématique

Un autre aspect critique est le risque de discrimination. Si un modèle d’IA est biaisé, ce biais peut être appliqué de manière cohérente et à grande échelle, entraînant des discriminations systématiques qui affectent de larges groupes de personnes. C’est un changement significatif par rapport à la prise de décision humaine, où les cas de discrimination étaient moins systématiques.

Risque d’agrégation

Les entreprises doivent être conscientes du risque d’agrégation lors de la planification et du déploiement de l’IA, notamment lorsqu’elles utilisent des modèles fondamentaux pour des décisions ayant un impact sur les consommateurs. Les modèles plus petits et spécifiques à une tâche sont préférables d’un point de vue de risque, car leurs cas d’utilisation sont clairement définis et plus faciles à tester.

Michael Berger recommande d’envisager l’utilisation de différents modèles fondamentaux ou même de choisir intentionnellement une architecture de modèle légèrement moins puissante si elle est moins liée à celles utilisées ailleurs dans l’organisation pour des tâches similaires, car cela peut aider à réduire le risque d’agrégation tout en maintenant des performances adéquates.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...