Risques du Règlement sur l’IA de l’UE pour les entreprises américaines

A traffic light indicating the need for caution and regulation in the development of AI.

De Meta à Airbnb : Les entreprises signalent les risques liés à la loi sur l’IA de l’UE

Plus de 70 entreprises cotées en bourse aux États-Unis, dont Meta Platforms Inc. et Adobe Inc., mettent en garde les investisseurs contre les risques que représente la réglementation sur l’IA la plus étendue au monde. La loi sur l’Intelligence Artificielle de l’Union Européenne (UE) impose des obligations aux prestataires, distributeurs et fabricants de systèmes d’IA, ce qui pourrait entraîner des coûts de conformité élevés et forcer les entreprises à modifier leurs offres de produits sur le marché européen.

Il s’agit de la première fois que ces entreprises expriment leurs inquiétudes concernant cette loi dans les sections de leurs rapports annuels qui traitent des risques potentiels pour leurs opérations et leur stabilité financière.

Risques identifiés par les entreprises

Des sociétés comme Airbnb Inc., Lyft Inc. et Mastercard Inc. ont spécifiquement mentionné la loi sur l’IA de l’UE comme un risque dans leurs déclarations 10-K récentes auprès de la Commission des valeurs mobilières des États-Unis. Les entreprises se préoccupent des réclamations civiles et des amendes sévères en cas de violation de la loi.

Selon Minesh Tanna, responsable mondial de l’IA chez Simmons & Simmons LLP, ces préoccupations reflètent une application potentiellement agressive de la loi sur l’IA de l’UE.

Section des facteurs de risque

La section des facteurs de risque des déclarations 10-K est conçue pour protéger les entreprises des accusations de fraude en valeurs mobilières en signalant les domaines potentiels de préoccupation pour les investisseurs. Les risques typiques incluent les coûts de litige et les troubles politiques et économiques dans les pays où les entreprises opèrent.

La loi sur l’IA de l’UE, entrée en vigueur en août, s’ajoute à une liste existante de lois liées à la technologie et à la protection des données que les entreprises ont mentionnées dans leurs rapports. Ses premières dispositions, visant à interdire les utilisations d’IA jugées trop risquées, ont pris effet en février.

Les ambiguïtés concernant les exigences de la loi augmentent l’inquiétude des entreprises. Elisa Botero, partenaire chez Curtis, Mallet-Prevost, Colt & Mosle LLP, a souligné que l’application des réglementations est cruciale pour comprendre comment les questions seront jugées.

Préoccupations diverses

Les règles basées sur le risque de la loi visent à garantir que les systèmes d’IA dans l’UE sont sûrs et respectent les droits fondamentaux, en éliminant des pratiques telles que la déception basée sur l’IA. La réglementation établit également un cadre juridique pour les prestataires de systèmes d’IA à usage général, comme le modèle de langage GPT-3 d’OpenAI Inc..

Le respect de cette loi pourrait imposer des coûts significatifs aux entreprises, comme l’a signalé la société de conseil Gartner Inc. dans son rapport 10-K. Ces coûts de conformité peuvent résulter de l’embauche de nouveaux employés, de la rémunération de conseillers externes ou d’autres coûts opérationnels.

Airbnb a noté que les réglementations, y compris la loi sur l’IA de l’UE, pourraient affecter leur capacité à utiliser, acquérir et commercialiser des outils d’IA et d’apprentissage automatique à l’avenir.

Risque de fragmentation

Joe Jones, directeur de la recherche et des insights pour l’Association internationale des professionnels de la vie privée, a averti que nous assistant à un risque de fragmentation concernant les produits et services offerts sur différents marchés.

La loi pourrait également exiger que l’utilisation de l’IA soit modifiée ou restreinte dans les produits disponibles, en fonction du niveau de risque impliqué, comme l’a mentionné le développeur de jeux vidéo Roblox Corp. dans son rapport.

Exigences de conformité accrues

Les responsables de l’UE ont assigné plus d’exigences de conformité aux utilisations d’IA à haut risque, telles que les types d’identification biométrique. Ces obligations peuvent inclure une documentation détaillée, une supervision humaine et des mesures de gouvernance des données.

Il existe une ambiguïté dans la catégorie des systèmes d’IA jugés à haut risque, a déclaré O’Reilly, ce qui complique la situation pour les entreprises.

Les entreprises pourraient être contraintes de se référer à un ensemble de législations distinctes de l’UE régissant des domaines tels que le transport pour déterminer si leurs systèmes d’IA entrent dans la catégorie des hauts risques.

Conséquences incertaines

L’application de la loi sur l’IA de l’UE est compliquée en raison des multiples acteurs impliqués. Alors que le Bureau européen de l’IA au sein de la Commission européenne a la compétence exclusive de réglementer les systèmes d’IA à usage général, il incombera généralement aux fonctionnaires des 27 États membres d’appliquer les règles concernant les utilisations à haut risque de l’IA.

Les violations des exigences de la loi pourraient entraîner des amendes allant jusqu’à 35 millions d’euros (environ 36 millions de dollars) ou 7 % du chiffre d’affaires mondial annuel de l’année précédente, selon Roblox.

Les entreprises telles que Meta, Adobe, Airbnb, Lyft, Mastercard, Gartner et Roblox n’ont pas répondu aux demandes de commentaires supplémentaires sur leurs déclarations 10-K.

Divulgation future

Le signalement des risques liés à l’IA est susceptible de créer un effet domino à mesure que les entreprises apprendront davantage sur la loi de l’UE. Les entreprises ont tendance à examiner les 10-K des autres, d’où un certain degré de vigilance.

Les entreprises doivent disposer de systèmes de gestion des risques solides et d’employés qui comprennent l’ensemble du cycle de vie du développement de l’IA, a déclaré Don Pagach, directeur de la recherche pour l’Initiative de gestion des risques d’entreprise à l’Université d’État de Caroline du Nord.

Les divulgations de cette année pourraient susciter des préoccupations supplémentaires du public concernant la gouvernance de l’IA des entreprises, incitant les investisseurs à se demander : « Quelle est votre réponse à la loi sur l’IA ? Qui est responsable au sein de l’organisation ? »

Enfin, il est crucial de prêter attention à cette loi en raison de la puissance de marché de l’UE. Elle s’applique non seulement aux entreprises envisageant d’élargir leur portée vers l’UE, mais également à celles qui ont déjà des clients dans l’UE.

« Ignorer l’un des plus grands marchés du monde est impensable pour les entreprises qui souhaitent développer des systèmes d’IA », a déclaré Botero.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...