L’impact des entreprises américaines sur le Code de Pratique de l’IA de l’UE

A magnifying glass

Comment les entreprises américaines affaiblissent le Code de pratique de l’IA de l’UE

Le Code de pratique de l’IA de l’UE représente le premier cadre complet pour gouverner l’IA. Pour les modèles les plus puissants, appelés IA à usage général (GPAI), un Code de pratique est actuellement en cours d’élaboration pour faciliter la conformité d’un petit nombre de grandes entreprises d’IA. Ce Code est développé au sein de quatre groupes de travail présidés par des experts, impliquant près de 1 000 parties prenantes de l’industrie, de la société civile et du monde académique.

Alors que le processus touche à sa fin, la Commission européenne a accordé un accès privilégié à un petit nombre de grandes entreprises américaines qui plaident pour un Code affaibli. Cela remet en question la légitimité du processus et va à l’encontre de l’intention du Code, qui est de servir les intérêts des citoyens européens. En outre, un tel lobbying intense contredit les revendications des entreprises selon lesquelles elles agissent dans l’intérêt public.

Un processus inclusif, mais pour qui ?

Le Code de pratique a été rédigé dans un processus sans précédent, impliquant plus de 1 000 parties prenantes. Toutefois, la question clé est de savoir si les grandes entreprises américaines, qui ont été privilégiées dans le processus, acceptent que les règles pour les GPAI soient une affaire d’intérêt public et ne peuvent pas être définies uniquement par elles. En exerçant des pressions sur la Commission européenne, ces entreprises mettent en péril l’ensemble du processus et perdent leur crédibilité en tant qu’acteurs d’intérêt public.

De plus, l’industrie confond à tort régulation faible et innovation, cherchant à tirer parti de l’impulsion récente de la Commission pour positionner l’UE en tant que leader mondial dans le domaine de l’IA. Cependant, comme l’a souligné Arthur Mensch, PDG de Mistral AI, le véritable problème en Europe n’est pas la régulation, mais plutôt la fragmentation du marché et le manque d’adoption de l’IA.

Le Code est devenu trop politisé

Dans un effort pour projeter une image amicale à l’innovation, certains acteurs de l’UE ont fait des signatures des grandes entreprises technologiques la monnaie de la réussite du Code. Cette logique est nuisible à l’objectif véritable du Code, car elle permet aux fournisseurs d’exploiter la non-signature comme une tactique de pression pour diluer le Code.

Le Code est censé être un outil technique pour aider à la conformité. Que se passe-t-il lorsque les fournisseurs ne respectent pas le Code ? Ils doivent opter pour d’autres moyens de conformité, ce qui nécessite un effort considérable pour évaluer leur efficacité. Bien que le Code représente un moyen simple de se conformer, choisir des alternatives implique des efforts supplémentaires.

Stratégie de se plaindre, puis de se conformer

Une fonction essentielle de la régulation est de mieux aligner le comportement des entreprises à but lucratif avec l’intérêt public. En réponse, les entreprises ont souvent des réactions instinctives, déclarant ces règles impossibles à appliquer. Par exemple, Google avait initialement prétendu qu’il ne pouvait pas gérer les suppressions basées sur le droit à l’effacement, mais il se conforme désormais sans problème à des milliers de demandes chaque année.

La Commission européenne ne doit pas céder aux tactiques de lobbying des entreprises. Le Code doit refléter l’intention de la Loi sur l’IA, protégeant les intérêts et les droits des citoyens européens. Un comité spécial a été mis en place au Parlement européen pour suivre la mise en œuvre de la Loi sur l’IA, signalant ainsi que le législateur ne tolérera pas la non-application de l’Acte.

Résister à la pression

La Commission européenne doit garantir que le Code de pratique respecte l’esprit de la Loi sur l’IA, comme convenu par les co-législateurs. Cela signifie protéger les droits des citoyens européens et l’intérêt public. Si l’engagement civique s’effondre au profit des préférences d’un petit nombre d’entreprises d’IA, cela causera des dommages significatifs à la démocratie dans l’UE.

Enfin, la Commission peut adopter le Code, même dans une version plus rigoureuse, sans les signatures des entreprises concernées. Cela ferait des mesures du Code le moyen officiel d’évaluer la conformité des GPAI avec la Loi sur l’IA. Les non-signataires seront contraints de se conformer s’ils souhaitent accéder au marché européen.

Articles

G7 : Un manqué sur la gouvernance mondiale de l’IA

Les dirigeants du G7 se sont réunis en Alberta, au Canada, mais le sujet de la gouvernance des modèles et systèmes d'intelligence artificielle a été remarquablement absent des discussions. Cette...

L’Afrique et l’avenir de l’IA : Vers une gouvernance souveraine

Des dirigeants africains ont appelé à des actions urgentes pour construire des systèmes d'IA souverains et éthiques adaptés aux besoins locaux. La discussion a souligné l'importance de garantir que...

Régulations et défis de conformité pour l’IA : enjeux clés à considérer

L'évolution de l'IA à travers le monde rend de plus en plus difficile l'application de réglementations efficaces. Les systèmes d'IA génèrent des défis en matière de gouvernance et de conformité...

L’IA incarnée en Chine : une voie unique vers l’innovation

La compétition entre les États-Unis et la Chine dans le domaine de l'intelligence artificielle est considérée comme la rivalité technologique déterminante de notre époque. La Chine possède des...

Travail Responsable : Workday et ses Accréditations en IA

Workday a récemment reçu deux accréditations tierces pour son programme de gouvernance de l'IA, soulignant son engagement envers le développement d'une IA responsable et transparente. Le responsable...

L’IA dans la finance britannique : entre adoption et inquiétudes de conformité

Une nouvelle enquête de Smarsh révèle que, bien que les outils d'IA soient rapidement adoptés dans les services financiers au Royaume-Uni, de nombreux employés restent préoccupés par la supervision et...

Éthique de l’IA : La neutralité au cœur de la rivalité technologique États-Unis-Chine

Alors que la rivalité technologique entre les États-Unis et la Chine s'intensifie, une agence de l'ONU plaide en faveur de normes mondiales sur l'éthique de l'IA. L'UNESCO a organisé son troisième...

Sécuriser l’IA : Conformité et Gouvernance avec DSPM

Le DSPM joue un rôle essentiel en aidant les organisations à se conformer aux exigences strictes de la loi sur l'IA de l'UE, en garantissant un déploiement sécurisé de l'IA et la sécurité des données...

L’Acte sur l’IA Non Adversaire : Vers une Interdiction des Technologies Chinoises

Un groupe bipartisan de législateurs a introduit un nouveau projet de loi visant à interdire l'utilisation d'outils d'intelligence artificielle développés dans des nations adversariales par le...