L’impact des entreprises américaines sur le Code de Pratique de l’IA de l’UE

A magnifying glass

Comment les entreprises américaines affaiblissent le Code de pratique de l’IA de l’UE

Le Code de pratique de l’IA de l’UE représente le premier cadre complet pour gouverner l’IA. Pour les modèles les plus puissants, appelés IA à usage général (GPAI), un Code de pratique est actuellement en cours d’élaboration pour faciliter la conformité d’un petit nombre de grandes entreprises d’IA. Ce Code est développé au sein de quatre groupes de travail présidés par des experts, impliquant près de 1 000 parties prenantes de l’industrie, de la société civile et du monde académique.

Alors que le processus touche à sa fin, la Commission européenne a accordé un accès privilégié à un petit nombre de grandes entreprises américaines qui plaident pour un Code affaibli. Cela remet en question la légitimité du processus et va à l’encontre de l’intention du Code, qui est de servir les intérêts des citoyens européens. En outre, un tel lobbying intense contredit les revendications des entreprises selon lesquelles elles agissent dans l’intérêt public.

Un processus inclusif, mais pour qui ?

Le Code de pratique a été rédigé dans un processus sans précédent, impliquant plus de 1 000 parties prenantes. Toutefois, la question clé est de savoir si les grandes entreprises américaines, qui ont été privilégiées dans le processus, acceptent que les règles pour les GPAI soient une affaire d’intérêt public et ne peuvent pas être définies uniquement par elles. En exerçant des pressions sur la Commission européenne, ces entreprises mettent en péril l’ensemble du processus et perdent leur crédibilité en tant qu’acteurs d’intérêt public.

De plus, l’industrie confond à tort régulation faible et innovation, cherchant à tirer parti de l’impulsion récente de la Commission pour positionner l’UE en tant que leader mondial dans le domaine de l’IA. Cependant, comme l’a souligné Arthur Mensch, PDG de Mistral AI, le véritable problème en Europe n’est pas la régulation, mais plutôt la fragmentation du marché et le manque d’adoption de l’IA.

Le Code est devenu trop politisé

Dans un effort pour projeter une image amicale à l’innovation, certains acteurs de l’UE ont fait des signatures des grandes entreprises technologiques la monnaie de la réussite du Code. Cette logique est nuisible à l’objectif véritable du Code, car elle permet aux fournisseurs d’exploiter la non-signature comme une tactique de pression pour diluer le Code.

Le Code est censé être un outil technique pour aider à la conformité. Que se passe-t-il lorsque les fournisseurs ne respectent pas le Code ? Ils doivent opter pour d’autres moyens de conformité, ce qui nécessite un effort considérable pour évaluer leur efficacité. Bien que le Code représente un moyen simple de se conformer, choisir des alternatives implique des efforts supplémentaires.

Stratégie de se plaindre, puis de se conformer

Une fonction essentielle de la régulation est de mieux aligner le comportement des entreprises à but lucratif avec l’intérêt public. En réponse, les entreprises ont souvent des réactions instinctives, déclarant ces règles impossibles à appliquer. Par exemple, Google avait initialement prétendu qu’il ne pouvait pas gérer les suppressions basées sur le droit à l’effacement, mais il se conforme désormais sans problème à des milliers de demandes chaque année.

La Commission européenne ne doit pas céder aux tactiques de lobbying des entreprises. Le Code doit refléter l’intention de la Loi sur l’IA, protégeant les intérêts et les droits des citoyens européens. Un comité spécial a été mis en place au Parlement européen pour suivre la mise en œuvre de la Loi sur l’IA, signalant ainsi que le législateur ne tolérera pas la non-application de l’Acte.

Résister à la pression

La Commission européenne doit garantir que le Code de pratique respecte l’esprit de la Loi sur l’IA, comme convenu par les co-législateurs. Cela signifie protéger les droits des citoyens européens et l’intérêt public. Si l’engagement civique s’effondre au profit des préférences d’un petit nombre d’entreprises d’IA, cela causera des dommages significatifs à la démocratie dans l’UE.

Enfin, la Commission peut adopter le Code, même dans une version plus rigoureuse, sans les signatures des entreprises concernées. Cela ferait des mesures du Code le moyen officiel d’évaluer la conformité des GPAI avec la Loi sur l’IA. Les non-signataires seront contraints de se conformer s’ils souhaitent accéder au marché européen.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...