Les réglementations de l’UE ne sont pas prêtes pour les incidents d’IA multi-agents
En août de cette année, les directives de la Commission européenne relatives à l’article 73 de la loi sur l’IA de l’UE entreront en vigueur. Ces directives obligent les déployeurs et les fournisseurs à signaler les incidents graves liés aux systèmes d’IA dans des environnements à haut risque tels que les infrastructures critiques.
C’est une publication opportune. Un expert a averti que cette année pourrait être l’une des dernières où il est encore possible de prévenir un désastre lié à l’IA, tel que défini par l’OCDE. L’ampleur et la croissance des incidents observés sont déjà préoccupantes.
Une réglementation adaptée ?
La réglementation en cours de développement est-elle adaptée ? Un avis récent a exprimé des inquiétudes concernant une faille dans le projet, qui se concentre sur les échecs à agent unique et assume une carte de causalité simpliste pour les incidents liés à l’IA. Cependant, certains des risques les plus graves émergent déjà des interactions entre les systèmes d’IA, où plusieurs occurrences peuvent entraîner des effets en cascade.
Un cadre de signalement des incidents qui garantit la responsabilité de ces nouveaux risques doit faire partie de la mise en œuvre de la loi sur l’IA de l’UE. Avec les directives de l’article 73 devenant contraignantes en août, il est urgent pour la Commission européenne d’intégrer ces changements.
Des incidents multi-agents
La formulation actuelle des directives de l’article 73 suppose qu’un seul système contribuera à un incident à haut risque. Cependant, les systèmes d’IA deviennent de plus en plus agentiques, capables de raisonnement complexe et d’actions proactives sans intervention humaine continue. Une fois déployés, ils sont susceptibles d’interagir avec d’autres agents d’IA, entraînant des dépendances complexes.
Par exemple, lorsque les algorithmes de tarification sur le marché du carburant en Allemagne ont commencé à réagir les uns aux autres, les prix ont augmenté sans coordination explicite. Ce phénomène, connu sous le nom de collusion algorithmique, illustre la lacune de responsabilité dans les réglementations actuelles.
Des incidents cumulés
Lorsque les systèmes de trading automatisés ont réagi les uns aux autres lors du « Flash Crash » de 2010, les prix du marché se sont effondrés de près d’un trillion de dollars en quelques minutes. Cet exemple montre comment les incidents liés à l’IA peuvent émerger de multiples interactions rapides entre les systèmes.
Les directives de l’article 73 devraient élargir leurs paramètres pour inclure explicitement les formes de préjudice cumulatif et systémique causées par plusieurs occurrences.
Menaces pour nos intérêts collectifs
Les lacunes actuelles dans le projet de directives de l’article 73 créent une ambiguïté juridique en matière de responsabilité et exposent des préjudices qui vont au-delà des utilisateurs individuels. À mesure que les gouvernements déploient des systèmes d’IA pour prévoir des tendances économiques ou soutenir la prise de décision administrative, des erreurs peuvent affecter des populations entières.
Si les directives de l’article 73 cherchent à protéger la démocratie et nos intérêts collectifs, elles doivent également reconnaître comment les dynamiques multi-agents menacent de manipuler ou de nuire à notre capacité à prendre des décisions éclairées.
Un besoin de signalement tiers
Étant donné la nature diffuse des incidents multi-agents et la difficulté de tenir un seul fournisseur responsable, l’importance des mécanismes de signalement confidentiels est indiscutable. Les directives actuelles ne prévoient pas de voies structurées pour le signalement par des tiers, ce qui est crucial pour faire émerger les défaillances multi-agents.
Conclusion
Les directives de l’article 73 révèlent un manque alarmant de préparation dans la réglementation des systèmes d’IA agentiques. Ces directives doivent élargir leur compréhension et leur réponse aux incidents liés à l’IA, en commençant par une définition plus réaliste du préjudice. Les incidents signalables ne devraient pas être limités aux échecs isolés, mais devraient inclure les défaillances qui émergent lorsque les systèmes d’IA interagissent les uns avec les autres.