Clarification de la CNIL sur l’utilisation des données personnelles pour l’IA

A computer chip

Clarification de la CNIL sur la Base du RGPD pour la Formation de l’IA

La récente orientation de la CNIL concernant l’application de l’intérêt légitime comme base légale pour la formation des modèles d’intelligence artificielle (IA) sous le Règlement Général sur la Protection des Données (RGPD) apporte une clarté bienvenue sur une question contestée : l’utilisation de données personnelles extraites de sources publiques.

Bien que significative, cette clarification ne constitue qu’une partie d’un ensemble complexe de questions réglementaires entourant la formation conforme des modèles d’IA. La CNIL reconnaît que son avis n’est pas harmonisé à travers l’UE, et que d’autres questions juridiques et stratégiques demeurent en suspens.

Ce que Clarifie l’Orientation de la CNIL – Et Ce qu’elle Laisse Ouvert

La CNIL affirme que la formation de modèles d’IA sur des données personnelles provenant de contenus publics peut être légale, sous réserve de certaines conditions. Ces conditions nécessitent un équilibre crédible des intérêts, des garanties démontrables, et une documentation claire.

Parmi les points clés de clarification, on trouve :

  • Le scraping web peut être permis, à condition de respecter les attentes de confidentialité contextuelles. Le scraping ne doit pas avoir lieu là où les sites l’interdisent activement (par exemple, via robots.txt), ou sur des plateformes destinées aux mineurs.
  • L’utilisation de données à grande échelle n’est pas intrinsèquement illégale. La CNIL reconnaît que de grands ensembles de données peuvent être nécessaires pour un développement efficace de l’IA.
  • Le bénéfice pour l’utilisateur final peut favoriser le contrôleur dans l’évaluation de l’intérêt légitime. Les améliorations en précision, fiabilité ou fonctionnalité peuvent légitimement peser en faveur du traitement, sous réserve d’une évaluation équilibrée et bien documentée.
  • Le risque de régurgitation doit être abordé, mais pas éliminé. La CNIL s’attend à des preuves de mitigation, telles que le filtrage rapide et l’exclusion des entrées à haut risque.
  • Les droits des personnes concernées peuvent être respectés indirectement. Des alternatives comme le filtrage des sorties ou la conception d’audits peuvent être acceptables.
  • La documentation doit être préparée au moment de la formation. La planification de l’évaluation de l’intérêt légitime et de la mitigation devrait être complète avant le début de la formation du modèle d’IA.
  • Les évaluations d’impact sur la protection des données (DPIA) peuvent toujours être attendues, notamment lorsque la formation implique des données à grande échelle ou des catégories spéciales de données.

Comparaison avec d’Autres Régulateurs

Bien que l’orientation de la CNIL soit la plus structurée à ce jour, d’autres autorités de protection des données opèrent avec des niveaux de clarté et d’accentuation variés :

  • Le Royaume-Uni a reconnu que les règles existantes du RGPD pourraient suffire à justifier la formation de l’IA, mais n’a pas fourni de directives détaillées sur les contextes acceptables.
  • La Commission irlandaise de protection des données et la CNIL italienne se sont concentrées principalement sur l’exécution en phase de déploiement.
  • Une approche cohérente à l’échelle de l’UE reste absente. Les entreprises doivent naviguer à travers des attentes multiples en fonction de l’endroit où leurs modèles sont formés ou déployés.

Le Paysage Général : Incertitude Juridique au-delà du RGPD

Bien que l’orientation de la CNIL offre une position défendable sur le RGPD pour la formation des modèles, elle ne résout pas d’autres restrictions légales qui limitent la viabilité des systèmes d’IA, en particulier dans des contextes commerciaux.

  • La loi sur le copyright et la loi sur les bases de données restent contraignantes. Le contenu accessible au public peut encore être protégé.
  • Les termes contractuels restreignent l’accès et la réutilisation. De nombreuses plateformes interdisent le scraping ou la réutilisation commerciale de leur contenu.
  • Le déploiement en aval introduit de nouvelles couches. Les obligations de conformité de la Loi sur l’IA, de la Loi sur les services numériques, et de la Loi britannique sur la sécurité en ligne ne sont pas résolues par l’alignement au stade de formation du RGPD.

Priorités Opérationnelles et Positionnement Juridique

Pour les équipes juridiques, de confidentialité et de produits naviguant dans ces régimes superposés, les priorités ne consistent pas à réinventer la gouvernance, mais à appliquer un jugement structuré à des moments clés. Cela inclut :

  • Utiliser l’orientation de la CNIL pour renforcer la gouvernance de la confidentialité existante.
  • La conformité au stade de formation ne permet pas l’utilisation commerciale.
  • Le déploiement reste une couche de conformité distincte.
  • Travailler de manière transversale et efficace en connectant les équipes juridiques, de confidentialité, de produits et d’ingénierie.
  • Assigner une responsabilité interne claire pour relier les décisions de formation du modèle à la documentation de confidentialité sous-jacente.
  • Planifier l’inconsistance et documenter tout.

Malgré cette clarté, les organisations devraient résister à l’idée de considérer la conformité au stade de formation du RGPD comme un problème résolu. L’interprétation variera selon les États membres, et l’exécution se concentrera probablement sur les résultats globaux, en particulier dans les cas d’utilisation sensibles.

Une position bien documentée sur le RGPD, ancrée dans l’orientation de la CNIL, reste un outil clé pour gérer la conformité à grande échelle en matière d’IA.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...

L’Australie envisage l’IA pour révolutionner les soumissions gouvernementales

Le gouvernement australien pourrait envisager d'utiliser des programmes d'intelligence artificielle pour rédiger des soumissions sensibles au cabinet, malgré les préoccupations concernant la sécurité...