Nouveaux modèles de contrats pour l’IA en Europe

A handshake signifying collaboration and mutual agreement in contractual relationships.

Publication des Clauses Contractuelles Modèles sur l’IA par la Communauté de Pratique de l’UE

La Communauté de Pratique sur l’Approvisionnement Public de l’IA de l’UE a récemment publié une version mise à jour de ses Clauses Contractuelles Modèles sur l’IA (MCC-AI) le 5 mars 2025. Ces clauses sont des modèles contractuels non contraignants destinés aux organisations publiques qui achètent des systèmes d’IA développés par des fournisseurs externes.

Le marché des termes contractuels sur l’IA continue d’évoluer. Bien qu’il n’existe pas d’approche standardisée, plusieurs initiatives ont été mises en place pour proposer des modèles de contrat. Cette nouvelle version des MCC-AI a été mise à jour pour s’aligner avec la Loi sur l’IA de l’UE, entrée en vigueur le 1er août 2024, mais dont les termes s’appliquent progressivement.

Les Modèles de Clauses Contractuelles

Les MCC-AI se composent de deux modèles :

  • Modèle MCC-AI à Haut Risque : Destiné à l’approvisionnement de systèmes d’IA classés comme « haut risque » selon la Loi sur l’IA. Ce modèle est basé sur les exigences et obligations établies dans le Chapitre III de cette loi.
  • Modèle MCC-AI Léger : Conçu pour l’approvisionnement de systèmes d’IA qui ne sont pas classés comme haut risque, mais qui peuvent tout de même présenter des risques pour la santé, la sécurité ou les droits fondamentaux. Ce modèle peut également être utilisé pour d’autres systèmes algorithmiques qui ne tombent pas sous la définition des systèmes d’IA selon la Loi sur l’IA, mais qui peuvent présenter des risques similaires.

Le commentaire accompagnant les MCC-AI recommande aux utilisateurs de sélectionner et d’appliquer les dispositions des modèles en fonction de la situation spécifique, ce qui suppose que les parties comprennent le cas d’utilisation de leur IA.

Utilisation et Recommandations

Bien que les MCC-AI soient principalement destinés aux organisations publiques, certaines clauses pourraient également servir de référence utile pour les entreprises privées concluant des contrats avec des fournisseurs externes de systèmes d’IA.

La Communauté de Pratique sur l’Approvisionnement Public de l’IA encourage les autorités publiques qui souhaitent utiliser les MCC-AI à faire rapport sur leur utilisation à la Public Sector Tech Watch. Plus de 900 exemples de l’utilisation de l’IA dans le secteur public ont déjà été signalés sur cette ressource.

Conclusion

Dans un domaine en constante évolution, la structuration des contrats commerciaux en conformité avec la Loi sur l’IA de l’UE demeure cruciale. Les organisations doivent rester informées des développements dans ce domaine.

Les MCC-AI représentent une avancée significative pour les organisations publiques cherchant à intégrer des systèmes d’IA tout en respectant les normes légales et éthiques en vigueur.

Articles

Réglementation britannique sur l’IA : Risques de biais et retours limités pour les créateurs

Des experts en politique avertissent que l'interdiction faite aux entreprises comme OpenAI, Google et Meta d'entraîner des IA sur des matériaux protégés par le droit d'auteur au Royaume-Uni pourrait...

Révision des règles de l’UE sur les modèles d’IA à usage général face à DeepSeek

L'émergence de l'application d'IA chinoise DeepSeek pousse les décideurs de l'UE à envisager des modifications de la loi sur l'IA de l'UE. Cela pourrait avoir des implications sur la réglementation...

Réglementation de l’IA : entre innovation et sécurité

Le développement de l'IA présente des risques en raison des limites éthiques des outils modernes d'IA par rapport aux cadres juridiques existants. Les approches réglementaires varient considérablement...

L’ingénierie des données : catalyseur d’une IA responsable et évolutive

L'article discute de l'importance de l'ingénierie des données dans l'adoption de l'IA responsable à grande échelle. Il présente un modèle de collaboration pour que les équipes d'ingénierie des données...

Responsabilités et risques de l’IA : enjeux juridiques à l’horizon

L'intelligence artificielle (IA) est de plus en plus omniprésente dans les affaires et la vie sociale, mais son utilisation croissante entraîne également des risques significatifs. Les préoccupations...

L’IA et les obligations GDPR : un rappel essentiel pour les entreprises

Une enquête de la Commission de protection des données d'Irlande (DPC) rappelle aux entreprises utilisant des outils d'intelligence artificielle (IA) de rester vigilantes quant à leurs obligations en...

L’Acte sur l’IA : Un tournant pour la gouvernance technologique mondiale

En avril 2025, l'UE met en œuvre la première réglementation complète sur l'intelligence artificielle, le AI Act. Cette législation classifie les systèmes d'IA en quatre niveaux de risque, allant de...

Réglementations mondiales : L’avenir de l’IA et de la technologie

Dans l'ère numérique contemporaine, l'intersection de la technologie et de la gouvernance pose un défi complexe pour les nations du monde entier. Alors que les États-Unis et l'UE régulent activement...

L’ère de l’IA explicable : comprendre pour faire confiance

L'ère de l'IA responsable a émergé alors que nous vivons dans un monde saturé par l'IA, rendant crucial le besoin de comprendre les décisions des modèles d'IA. L'explicabilité de l'IA (XAI) est...