Naviguer dans les Règles Européennes sur l’IA et la Protection des Données : Défis et Solutions pour les Entreprises

A magnifying glass illustrating scrutiny and transparency.

Comment les entreprises peuvent-elles s’attaquer aux règles européennes sur l’IA et la protection des données ?

Les entreprises du secteur des sciences de la vie doivent faire face à des questions uniques en matière de conformité avec la loi européenne sur l’intelligence artificielle (IA), notamment l’étendue de l’exemption de recherche prévue par la loi et l’utilisation de l’IA dans la médecine personnalisée ainsi que les données probantes du monde réel.

Les législateurs de l’Union européenne ont signé la loi sur l’IA, la première réglementation contraignante au monde sur l’IA, en juin. Elle a été publiée dans le Journal officiel de l’Union européenne le 12 juillet 2024 et est entrée en vigueur dans les 27 États membres de l’UE le 1er août. La loi définit les systèmes d’IA et les classe en quatre catégories de risque : risque inacceptable, risque élevé, risque limité et risque minimal. Les systèmes inacceptables sont prohibés et doivent être éliminés dans un délai de six mois, tandis que les dispositions concernant les autres catégories s’appliqueront dans un délai de 24 à 36 mois après la promulgation.

Intersection avec le RGPD

La loi sur l’IA s’entrecroise avec le Règlement général sur la protection des données (RGPD), qui est entré en vigueur en mai 2018. Cette loi exige des entreprises de l’UE et des États-Unis qu’elles soumettent une Évaluation de l’impact sur la protection des données (DPIA) lorsque le traitement des données est susceptible d’entraîner un risque élevé pour les droits et libertés des individus.

Les principes sous-jacents de la loi sur l’IA sont souvent liés au RGPD, et les entreprises des sciences de la vie peuvent tirer parti de leur expérience avec le RGPD pour se conformer à la loi sur l’IA.

Conformité à la loi sur l’IA

Pour se conformer à la loi sur l’IA, les organisations doivent d’abord cartographier les systèmes d’IA qu’elles possèdent et les classer selon les quatre catégories de risque prévues par la loi. Elles peuvent ensuite commencer à examiner les obligations qui en découlent.

Une disposition exige que les fournisseurs et les déployeurs de systèmes d’IA garantissent un niveau suffisant de littératie en IA de leur personnel et des autres personnes utilisant les systèmes en leur nom, afin qu’ils puissent prendre des décisions éclairées concernant ces systèmes. Cette obligation d’éduquer le personnel entrera en vigueur le 2 février 2025, les organisations doivent donc adopter des mesures de littératie en IA d’ici là.

Exemption de recherche et données probantes du monde réel

La loi sur l’IA précise que la réglementation « ne s’applique pas aux systèmes d’IA ou aux modèles d’IA, y compris leurs résultats, spécifiquement développés et mis en service dans le seul but de la recherche scientifique ». Bien que cette exemption allège le fardeau des entreprises du secteur des sciences de la vie, il existe une incertitude quant à son étendue.

Les essais cliniques et la découverte de médicaments relèvent probablement de l’exception de recherche, tandis que la recherche à des fins commerciales pourrait être soumise à la loi. Il est incertain dans quelle mesure les systèmes d’IA utilisés pour aider aux tâches de recherche seront considérés comme des outils de recherche.

Évaluation des risques, explicabilité et responsabilité

La loi exige que les développeurs de systèmes d’IA à haut risque procèdent à une évaluation des risques. Certains développeurs peuvent ne pas avoir l’expertise nécessaire pour réaliser une bonne évaluation des risques. Alors qu’une DPIA évalue la protection de l’information personnelle sur les individus, l’évaluation des risques pour l’IA s’étend aux dommages potentiels qu’une solution d’IA pourrait causer.

La réglementation exige également que les développeurs expliquent leurs systèmes d’IA, afin que les utilisateurs sachent comment une décision utilisant l’IA a été prise. Les entreprises devront adopter de bonnes pratiques et des mesures pour garantir la responsabilité.

Déclarations d’impact sur la protection des données

Les entreprises cherchent encore à comprendre les complexités du RGPD, qui impose des obligations aux organisations ciblant ou collectant des données relatives à des personnes dans l’UE. La loi exige des organisations qu’elles produisent une DPIA pour chaque activité de traitement des données susceptible d’entraîner un risque élevé pour les informations personnelles des individus.

Une DPIA évalue l’impact que la technologie d’une organisation aura sur le droit à la protection des données personnelles. Les entreprises doivent être prêtes à réaliser une DPIA tout au long du développement d’un processus afin de ne pas avoir à revenir en arrière pour ajouter un mécanisme de rectification d’un problème.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...