Risques du Règlement sur l’IA de l’UE pour les entreprises américaines

A traffic light indicating the need for caution and regulation in the development of AI.

De Meta à Airbnb : Les entreprises signalent les risques liés à la loi sur l’IA de l’UE

Plus de 70 entreprises cotées en bourse aux États-Unis, dont Meta Platforms Inc. et Adobe Inc., mettent en garde les investisseurs contre les risques que représente la réglementation sur l’IA la plus étendue au monde. La loi sur l’Intelligence Artificielle de l’Union Européenne (UE) impose des obligations aux prestataires, distributeurs et fabricants de systèmes d’IA, ce qui pourrait entraîner des coûts de conformité élevés et forcer les entreprises à modifier leurs offres de produits sur le marché européen.

Il s’agit de la première fois que ces entreprises expriment leurs inquiétudes concernant cette loi dans les sections de leurs rapports annuels qui traitent des risques potentiels pour leurs opérations et leur stabilité financière.

Risques identifiés par les entreprises

Des sociétés comme Airbnb Inc., Lyft Inc. et Mastercard Inc. ont spécifiquement mentionné la loi sur l’IA de l’UE comme un risque dans leurs déclarations 10-K récentes auprès de la Commission des valeurs mobilières des États-Unis. Les entreprises se préoccupent des réclamations civiles et des amendes sévères en cas de violation de la loi.

Selon Minesh Tanna, responsable mondial de l’IA chez Simmons & Simmons LLP, ces préoccupations reflètent une application potentiellement agressive de la loi sur l’IA de l’UE.

Section des facteurs de risque

La section des facteurs de risque des déclarations 10-K est conçue pour protéger les entreprises des accusations de fraude en valeurs mobilières en signalant les domaines potentiels de préoccupation pour les investisseurs. Les risques typiques incluent les coûts de litige et les troubles politiques et économiques dans les pays où les entreprises opèrent.

La loi sur l’IA de l’UE, entrée en vigueur en août, s’ajoute à une liste existante de lois liées à la technologie et à la protection des données que les entreprises ont mentionnées dans leurs rapports. Ses premières dispositions, visant à interdire les utilisations d’IA jugées trop risquées, ont pris effet en février.

Les ambiguïtés concernant les exigences de la loi augmentent l’inquiétude des entreprises. Elisa Botero, partenaire chez Curtis, Mallet-Prevost, Colt & Mosle LLP, a souligné que l’application des réglementations est cruciale pour comprendre comment les questions seront jugées.

Préoccupations diverses

Les règles basées sur le risque de la loi visent à garantir que les systèmes d’IA dans l’UE sont sûrs et respectent les droits fondamentaux, en éliminant des pratiques telles que la déception basée sur l’IA. La réglementation établit également un cadre juridique pour les prestataires de systèmes d’IA à usage général, comme le modèle de langage GPT-3 d’OpenAI Inc..

Le respect de cette loi pourrait imposer des coûts significatifs aux entreprises, comme l’a signalé la société de conseil Gartner Inc. dans son rapport 10-K. Ces coûts de conformité peuvent résulter de l’embauche de nouveaux employés, de la rémunération de conseillers externes ou d’autres coûts opérationnels.

Airbnb a noté que les réglementations, y compris la loi sur l’IA de l’UE, pourraient affecter leur capacité à utiliser, acquérir et commercialiser des outils d’IA et d’apprentissage automatique à l’avenir.

Risque de fragmentation

Joe Jones, directeur de la recherche et des insights pour l’Association internationale des professionnels de la vie privée, a averti que nous assistant à un risque de fragmentation concernant les produits et services offerts sur différents marchés.

La loi pourrait également exiger que l’utilisation de l’IA soit modifiée ou restreinte dans les produits disponibles, en fonction du niveau de risque impliqué, comme l’a mentionné le développeur de jeux vidéo Roblox Corp. dans son rapport.

Exigences de conformité accrues

Les responsables de l’UE ont assigné plus d’exigences de conformité aux utilisations d’IA à haut risque, telles que les types d’identification biométrique. Ces obligations peuvent inclure une documentation détaillée, une supervision humaine et des mesures de gouvernance des données.

Il existe une ambiguïté dans la catégorie des systèmes d’IA jugés à haut risque, a déclaré O’Reilly, ce qui complique la situation pour les entreprises.

Les entreprises pourraient être contraintes de se référer à un ensemble de législations distinctes de l’UE régissant des domaines tels que le transport pour déterminer si leurs systèmes d’IA entrent dans la catégorie des hauts risques.

Conséquences incertaines

L’application de la loi sur l’IA de l’UE est compliquée en raison des multiples acteurs impliqués. Alors que le Bureau européen de l’IA au sein de la Commission européenne a la compétence exclusive de réglementer les systèmes d’IA à usage général, il incombera généralement aux fonctionnaires des 27 États membres d’appliquer les règles concernant les utilisations à haut risque de l’IA.

Les violations des exigences de la loi pourraient entraîner des amendes allant jusqu’à 35 millions d’euros (environ 36 millions de dollars) ou 7 % du chiffre d’affaires mondial annuel de l’année précédente, selon Roblox.

Les entreprises telles que Meta, Adobe, Airbnb, Lyft, Mastercard, Gartner et Roblox n’ont pas répondu aux demandes de commentaires supplémentaires sur leurs déclarations 10-K.

Divulgation future

Le signalement des risques liés à l’IA est susceptible de créer un effet domino à mesure que les entreprises apprendront davantage sur la loi de l’UE. Les entreprises ont tendance à examiner les 10-K des autres, d’où un certain degré de vigilance.

Les entreprises doivent disposer de systèmes de gestion des risques solides et d’employés qui comprennent l’ensemble du cycle de vie du développement de l’IA, a déclaré Don Pagach, directeur de la recherche pour l’Initiative de gestion des risques d’entreprise à l’Université d’État de Caroline du Nord.

Les divulgations de cette année pourraient susciter des préoccupations supplémentaires du public concernant la gouvernance de l’IA des entreprises, incitant les investisseurs à se demander : « Quelle est votre réponse à la loi sur l’IA ? Qui est responsable au sein de l’organisation ? »

Enfin, il est crucial de prêter attention à cette loi en raison de la puissance de marché de l’UE. Elle s’applique non seulement aux entreprises envisageant d’élargir leur portée vers l’UE, mais également à celles qui ont déjà des clients dans l’UE.

« Ignorer l’un des plus grands marchés du monde est impensable pour les entreprises qui souhaitent développer des systèmes d’IA », a déclaré Botero.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...