Les entreprises britanniques dominent la course à l’IA, tandis que la réglementation freine l’UE

Les PDG britanniques sont beaucoup plus susceptibles d’avoir des plans pour l’intelligence artificielle (IA) que leurs homologues européens, qui luttent avec la réglementation.

Une nouvelle étude menée par Harris, pour le compte de la plateforme IA Dataiku, a mis en lumière un écart significatif dans l’adoption entre le Royaume-Uni et l’UE en raison des préoccupations réglementaires.

Un écart d’adoption frappant

Le rapport a révélé que seulement 26 % des PDG britanniques ont signalé avoir retardé des initiatives en raison d’une réglementation floue ou évolutive, comparé à 59 % en France. Les entreprises britanniques semblent adopter une approche plus structurée, avec 23 % des PDG ayant établi une feuille de route formelle pour l’implémentation de l’IA pour l’année à venir.

Cela représente presque le double de la moyenne mondiale de 12 %, et bien devant les PDG allemands, dont seulement 5 % ont déclaré avoir un plan en place.

Un climat d’incertitude réduit

Florian Douetteau, PDG de Dataiku, a déclaré : « La recherche de marché dans notre rapport suggère qu’une incertitude réglementaire réduite donne aux entreprises britanniques la clarté nécessaire pour agir – accélérant l’innovation et l’adoption, même si l’IA évolue à un rythme effréné ». Lorsque les PDG ont confiance en la conformité et le contrôle de la gouvernance, ils peuvent agir plus rapidement, évoluer plus intelligemment et capitaliser pleinement sur le potentiel de l’IA.

Réglementation stricte dans l’UE

En revanche, l’approche réglementaire de l’UE vis-à-vis de la technologie a généralement été plus stricte que celle du Royaume-Uni. La Loi sur l’IA de l’UE est le cadre le plus complet introduit à ce jour.

À noter que, parallèlement aux États-Unis, le Royaume-Uni a refusé de signer un accord qui promettait une approche ouverte, inclusive et éthique du développement de l’IA. En expliquant cette décision, un porte-parole du gouvernement a déclaré que le Royaume-Uni « estimait que la déclaration ne fournissait pas suffisamment de clarté pratique sur la gouvernance mondiale, ni ne répondait suffisamment aux questions difficiles autour de la sécurité nationale et des défis que l’IA pose à celle-ci ».

Le vice-président américain JD Vance a averti contre l’adoption d’une approche qui décourageait « les innovateurs de prendre les risques nécessaires pour progresser ».

Questions soulevées par la réglementation

Jacob Beswick, directeur senior de la gouvernance de l’IA chez Dataiku, a déclaré : « La Loi sur l’IA de l’UE a soulevé plus de questions qu’elle n’en a répondu, et ce faisant, les entreprises de sa juridiction sont devenues de plus en plus hésitantes quant à leurs programmes d’IA ».

« Alors que le Royaume-Uni a moins de restrictions, les entreprises doivent s’assurer qu’elles construisent l’IA avec but et responsabilité, plutôt que simplement parce qu’elles le peuvent ».

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...