Nouvelles règles de l’UE sur l’IA : des préoccupations persistantes

A puzzle piece

La Commission Européenne dévoile un nouveau projet de règles sur l’IA

La Commission Européenne a publié un nouveau projet de règles concernant l’utilisation des modèles d’intelligence artificielle à usage général par les entreprises, tels que GPT-4 d’OpenAI ou Mistral’s Large. Cependant, les critiques soulignent que les propositions soulevées continuent de poser des préoccupations significatives pour les entreprises technologiques opérant sur le continent.

Un cadre législatif complet

Considéré comme l’ensemble de lois le plus complet au monde régissant cette technologie, le Règlement sur l’IA introduit une longue liste de nouvelles règles pour les organisations utilisant cette technologie au sein de l’UE, en mettant l’accent sur l’éthique, la sûreté et la transparence.

Depuis la fin de l’année dernière, des experts issus de l’industrie, du milieu académique et des organisations à but non lucratif ont débattu d’un document clé : le code de pratique pour l’IA à usage général (GPAI).

Les enjeux derrière le projet de règles

En coulisses, des lobbyistes de tous horizons ont travaillé à définir comment les modèles de langage de grande taille (LLMs) déployés par des entreprises comme OpenAI, Google et Mistral seront réglementés.

Le mardi dernier, la Commission Européenne a publié la troisième version du code de pratique. Parmi les propositions, on trouve l’obligation d’ouvrir les données d’entraînement des entreprises d’IA pour détecter d’éventuelles violations du droit d’auteur et d’autoriser des experts externes à inspecter leurs modèles à des fins de sécurité.

Les préoccupations des entreprises technologiques

Boniface de Champris, un responsable des politiques au sein de la Computer & Communications Industry Association (CCIA) Europe, qui compte parmi ses membres des entreprises telles qu’Amazon, Google et Meta, a déclaré que ce projet soulevait toujours des préoccupations significatives pour les entreprises technologiques.

« Des problèmes sérieux demeurent, notamment des obligations étendues concernant le droit d’auteur et la transparence, qui menaceraient les secrets commerciaux, ainsi que des évaluations de risques externes lourdes qui font toujours partie de cette dernière itération, » a-t-il déclaré.

« Le nouveau projet représente des avancées limitées par rapport à son prédécesseur hautement problématique, mais le Code GPAI continue de ne pas fournir aux entreprises la certitude légale nécessaire pour faire avancer l’innovation en matière d’IA en Europe. Dans sa forme actuelle, le Code risque toujours de miner directement la compétitivité numérique de l’UE. »

La Commission Européenne a été contactée pour obtenir des commentaires sur ces préoccupations.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...