Risques du Règlement sur l’IA de l’UE pour les entreprises américaines

A traffic light indicating the need for caution and regulation in the development of AI.

De Meta à Airbnb : Les entreprises signalent les risques liés à la loi sur l’IA de l’UE

Plus de 70 entreprises cotées en bourse aux États-Unis, dont Meta Platforms Inc. et Adobe Inc., mettent en garde les investisseurs contre les risques que représente la réglementation sur l’IA la plus étendue au monde. La loi sur l’Intelligence Artificielle de l’Union Européenne (UE) impose des obligations aux prestataires, distributeurs et fabricants de systèmes d’IA, ce qui pourrait entraîner des coûts de conformité élevés et forcer les entreprises à modifier leurs offres de produits sur le marché européen.

Il s’agit de la première fois que ces entreprises expriment leurs inquiétudes concernant cette loi dans les sections de leurs rapports annuels qui traitent des risques potentiels pour leurs opérations et leur stabilité financière.

Risques identifiés par les entreprises

Des sociétés comme Airbnb Inc., Lyft Inc. et Mastercard Inc. ont spécifiquement mentionné la loi sur l’IA de l’UE comme un risque dans leurs déclarations 10-K récentes auprès de la Commission des valeurs mobilières des États-Unis. Les entreprises se préoccupent des réclamations civiles et des amendes sévères en cas de violation de la loi.

Selon Minesh Tanna, responsable mondial de l’IA chez Simmons & Simmons LLP, ces préoccupations reflètent une application potentiellement agressive de la loi sur l’IA de l’UE.

Section des facteurs de risque

La section des facteurs de risque des déclarations 10-K est conçue pour protéger les entreprises des accusations de fraude en valeurs mobilières en signalant les domaines potentiels de préoccupation pour les investisseurs. Les risques typiques incluent les coûts de litige et les troubles politiques et économiques dans les pays où les entreprises opèrent.

La loi sur l’IA de l’UE, entrée en vigueur en août, s’ajoute à une liste existante de lois liées à la technologie et à la protection des données que les entreprises ont mentionnées dans leurs rapports. Ses premières dispositions, visant à interdire les utilisations d’IA jugées trop risquées, ont pris effet en février.

Les ambiguïtés concernant les exigences de la loi augmentent l’inquiétude des entreprises. Elisa Botero, partenaire chez Curtis, Mallet-Prevost, Colt & Mosle LLP, a souligné que l’application des réglementations est cruciale pour comprendre comment les questions seront jugées.

Préoccupations diverses

Les règles basées sur le risque de la loi visent à garantir que les systèmes d’IA dans l’UE sont sûrs et respectent les droits fondamentaux, en éliminant des pratiques telles que la déception basée sur l’IA. La réglementation établit également un cadre juridique pour les prestataires de systèmes d’IA à usage général, comme le modèle de langage GPT-3 d’OpenAI Inc..

Le respect de cette loi pourrait imposer des coûts significatifs aux entreprises, comme l’a signalé la société de conseil Gartner Inc. dans son rapport 10-K. Ces coûts de conformité peuvent résulter de l’embauche de nouveaux employés, de la rémunération de conseillers externes ou d’autres coûts opérationnels.

Airbnb a noté que les réglementations, y compris la loi sur l’IA de l’UE, pourraient affecter leur capacité à utiliser, acquérir et commercialiser des outils d’IA et d’apprentissage automatique à l’avenir.

Risque de fragmentation

Joe Jones, directeur de la recherche et des insights pour l’Association internationale des professionnels de la vie privée, a averti que nous assistant à un risque de fragmentation concernant les produits et services offerts sur différents marchés.

La loi pourrait également exiger que l’utilisation de l’IA soit modifiée ou restreinte dans les produits disponibles, en fonction du niveau de risque impliqué, comme l’a mentionné le développeur de jeux vidéo Roblox Corp. dans son rapport.

Exigences de conformité accrues

Les responsables de l’UE ont assigné plus d’exigences de conformité aux utilisations d’IA à haut risque, telles que les types d’identification biométrique. Ces obligations peuvent inclure une documentation détaillée, une supervision humaine et des mesures de gouvernance des données.

Il existe une ambiguïté dans la catégorie des systèmes d’IA jugés à haut risque, a déclaré O’Reilly, ce qui complique la situation pour les entreprises.

Les entreprises pourraient être contraintes de se référer à un ensemble de législations distinctes de l’UE régissant des domaines tels que le transport pour déterminer si leurs systèmes d’IA entrent dans la catégorie des hauts risques.

Conséquences incertaines

L’application de la loi sur l’IA de l’UE est compliquée en raison des multiples acteurs impliqués. Alors que le Bureau européen de l’IA au sein de la Commission européenne a la compétence exclusive de réglementer les systèmes d’IA à usage général, il incombera généralement aux fonctionnaires des 27 États membres d’appliquer les règles concernant les utilisations à haut risque de l’IA.

Les violations des exigences de la loi pourraient entraîner des amendes allant jusqu’à 35 millions d’euros (environ 36 millions de dollars) ou 7 % du chiffre d’affaires mondial annuel de l’année précédente, selon Roblox.

Les entreprises telles que Meta, Adobe, Airbnb, Lyft, Mastercard, Gartner et Roblox n’ont pas répondu aux demandes de commentaires supplémentaires sur leurs déclarations 10-K.

Divulgation future

Le signalement des risques liés à l’IA est susceptible de créer un effet domino à mesure que les entreprises apprendront davantage sur la loi de l’UE. Les entreprises ont tendance à examiner les 10-K des autres, d’où un certain degré de vigilance.

Les entreprises doivent disposer de systèmes de gestion des risques solides et d’employés qui comprennent l’ensemble du cycle de vie du développement de l’IA, a déclaré Don Pagach, directeur de la recherche pour l’Initiative de gestion des risques d’entreprise à l’Université d’État de Caroline du Nord.

Les divulgations de cette année pourraient susciter des préoccupations supplémentaires du public concernant la gouvernance de l’IA des entreprises, incitant les investisseurs à se demander : « Quelle est votre réponse à la loi sur l’IA ? Qui est responsable au sein de l’organisation ? »

Enfin, il est crucial de prêter attention à cette loi en raison de la puissance de marché de l’UE. Elle s’applique non seulement aux entreprises envisageant d’élargir leur portée vers l’UE, mais également à celles qui ont déjà des clients dans l’UE.

« Ignorer l’un des plus grands marchés du monde est impensable pour les entreprises qui souhaitent développer des systèmes d’IA », a déclaré Botero.

Articles

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...

Les nouvelles frontières de l’intelligence artificielle

La Chambre des représentants a récemment adopté une loi qui pourrait empêcher les États de réglementer l'intelligence artificielle (IA) pendant dix ans. Cela suscite des inquiétudes parmi certains...

Régulation et Innovation : Le Dilemme de la Finance

Les entreprises de services financiers se trouvent prises entre des réglementations sur l'IA en évolution rapide, qui varient considérablement selon les juridictions, créant des cauchemars de...