Risques des entreprises face à la législation européenne sur l’IA

A shield

Des entreprises signalent les risques liés à la loi sur l’IA de l’UE

Un nombre croissant d’entreprises, dont Meta Platforms Inc. et Adobe Inc., ainsi que plus de 70 autres sociétés américaines cotées en bourse, mettent en garde les investisseurs contre les risques que la loi sur l’intelligence artificielle (IA) de l’Union Européenne (UE) pourrait poser pour leurs activités.

Une réglementation de grande envergure

La loi sur l’intelligence artificielle de l’UE, qui impose des obligations aux fournisseurs, distributeurs et fabricants de systèmes d’IA, pourrait entraîner des coûts de conformité élevés et forcer les entreprises à modifier leurs offres de produits. Cette préoccupation a été exprimée pour la première fois dans les rapports annuels des entreprises, où elles identifient les risques potentiels pour leurs opérations et leur stabilité financière.

Des sociétés comme Airbnb Inc., Lyft Inc. et Mastercard Inc. ont déjà mentionné cette loi comme un risque dans leurs déclarations 10-K auprès de la Commission des valeurs mobilières des États-Unis. Les entreprises craignent des poursuites civiles et des amendes sévères si elles sont accusées de violer la loi.

Une mise en œuvre complexe

Le secteur des risques dans les déclarations 10-K vise à protéger les entreprises contre les accusations de fraude boursière en signalant des domaines de préoccupation aux investisseurs potentiels. Les risques typiques incluent les coûts de litige et les troubles politiques et économiques dans les pays où les entreprises exercent leurs activités.

La loi sur l’IA de l’UE, entrée en vigueur en août, s’ajoute à une liste existante de lois relatives à la technologie et à la protection des données que les entreprises mentionnent dans leurs rapports. Ses premières dispositions interdisant les utilisations trop risquées de l’IA dans l’UE sont entrées en vigueur en février.

Préoccupations diverses

Les règles basées sur les risques de la loi visent à garantir que les systèmes d’IA dans l’UE soient sûrs et respectent les droits fondamentaux, en éliminant les pratiques telles que la déception basée sur l’IA. La réglementation établit également un cadre juridique pour les fournisseurs de systèmes d’IA à usage général, comme le modèle de langage GPT-3 d’OpenAI Inc..

La conformité à cette loi pourrait imposer des coûts significatifs aux entreprises, comme l’a indiqué la société de conseil Gartner Inc. dans son rapport 10-K. Ces coûts peuvent résulter de l’embauche de nouveau personnel, du paiement de conseillers externes ou d’autres coûts opérationnels.

Conséquences incertaines

La mise en œuvre de la loi sur l’IA de l’UE est compliquée en raison des nombreux acteurs impliqués. Bien que l’Bureau européen de l’IA au sein de la Commission européenne ait la compétence exclusive pour réglementer les systèmes d’IA à usage général, il incombe généralement aux autorités des 27 États membres d’appliquer les règles concernant les utilisations à haut risque de l’IA.

Les violations des exigences de la loi peuvent entraîner des amendes allant jusqu’à 35 millions d’euros (environ 36 millions de dollars) ou 7 % du chiffre d’affaires mondial annuel de l’année précédente, selon le rapport de Roblox.

Une future divulgation

Le fait de signaler les risques liés à l’IA devrait créer un effet domino alors que les entreprises en apprendront davantage sur la loi de l’UE. Les entreprises doivent disposer de systèmes de gestion des risques solides et d’employés qui comprennent l’ensemble du cycle de vie du développement de l’IA.

Cette année, les divulgations pourraient susciter davantage de préoccupations du public concernant la gouvernance de l’IA des entreprises. Les investisseurs pourraient se poser des questions sur la réponse des entreprises à la loi sur l’IA et sur qui est responsable au sein de l’organisation.

En conclusion, la loi de l’UE sur l’IA est essentielle à comprendre non seulement pour les entreprises cherchant à étendre leur portée en Europe, mais aussi pour celles qui ont déjà des clients dans l’UE. Ignorer l’un des plus grands marchés du monde ne peut être une option pour les entreprises souhaitant développer des systèmes d’IA.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...