Risques des entreprises face à la législation européenne sur l’IA

A shield

Des entreprises signalent les risques liés à la loi sur l’IA de l’UE

Un nombre croissant d’entreprises, dont Meta Platforms Inc. et Adobe Inc., ainsi que plus de 70 autres sociétés américaines cotées en bourse, mettent en garde les investisseurs contre les risques que la loi sur l’intelligence artificielle (IA) de l’Union Européenne (UE) pourrait poser pour leurs activités.

Une réglementation de grande envergure

La loi sur l’intelligence artificielle de l’UE, qui impose des obligations aux fournisseurs, distributeurs et fabricants de systèmes d’IA, pourrait entraîner des coûts de conformité élevés et forcer les entreprises à modifier leurs offres de produits. Cette préoccupation a été exprimée pour la première fois dans les rapports annuels des entreprises, où elles identifient les risques potentiels pour leurs opérations et leur stabilité financière.

Des sociétés comme Airbnb Inc., Lyft Inc. et Mastercard Inc. ont déjà mentionné cette loi comme un risque dans leurs déclarations 10-K auprès de la Commission des valeurs mobilières des États-Unis. Les entreprises craignent des poursuites civiles et des amendes sévères si elles sont accusées de violer la loi.

Une mise en œuvre complexe

Le secteur des risques dans les déclarations 10-K vise à protéger les entreprises contre les accusations de fraude boursière en signalant des domaines de préoccupation aux investisseurs potentiels. Les risques typiques incluent les coûts de litige et les troubles politiques et économiques dans les pays où les entreprises exercent leurs activités.

La loi sur l’IA de l’UE, entrée en vigueur en août, s’ajoute à une liste existante de lois relatives à la technologie et à la protection des données que les entreprises mentionnent dans leurs rapports. Ses premières dispositions interdisant les utilisations trop risquées de l’IA dans l’UE sont entrées en vigueur en février.

Préoccupations diverses

Les règles basées sur les risques de la loi visent à garantir que les systèmes d’IA dans l’UE soient sûrs et respectent les droits fondamentaux, en éliminant les pratiques telles que la déception basée sur l’IA. La réglementation établit également un cadre juridique pour les fournisseurs de systèmes d’IA à usage général, comme le modèle de langage GPT-3 d’OpenAI Inc..

La conformité à cette loi pourrait imposer des coûts significatifs aux entreprises, comme l’a indiqué la société de conseil Gartner Inc. dans son rapport 10-K. Ces coûts peuvent résulter de l’embauche de nouveau personnel, du paiement de conseillers externes ou d’autres coûts opérationnels.

Conséquences incertaines

La mise en œuvre de la loi sur l’IA de l’UE est compliquée en raison des nombreux acteurs impliqués. Bien que l’Bureau européen de l’IA au sein de la Commission européenne ait la compétence exclusive pour réglementer les systèmes d’IA à usage général, il incombe généralement aux autorités des 27 États membres d’appliquer les règles concernant les utilisations à haut risque de l’IA.

Les violations des exigences de la loi peuvent entraîner des amendes allant jusqu’à 35 millions d’euros (environ 36 millions de dollars) ou 7 % du chiffre d’affaires mondial annuel de l’année précédente, selon le rapport de Roblox.

Une future divulgation

Le fait de signaler les risques liés à l’IA devrait créer un effet domino alors que les entreprises en apprendront davantage sur la loi de l’UE. Les entreprises doivent disposer de systèmes de gestion des risques solides et d’employés qui comprennent l’ensemble du cycle de vie du développement de l’IA.

Cette année, les divulgations pourraient susciter davantage de préoccupations du public concernant la gouvernance de l’IA des entreprises. Les investisseurs pourraient se poser des questions sur la réponse des entreprises à la loi sur l’IA et sur qui est responsable au sein de l’organisation.

En conclusion, la loi de l’UE sur l’IA est essentielle à comprendre non seulement pour les entreprises cherchant à étendre leur portée en Europe, mais aussi pour celles qui ont déjà des clients dans l’UE. Ignorer l’un des plus grands marchés du monde ne peut être une option pour les entreprises souhaitant développer des systèmes d’IA.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...