Premières étapes pour une gouvernance de l’IA en santé
Le paysage réglementaire de l’IA a connu des évolutions majeures ces derniers mois. La perception de la réglementation comme un frein à l’innovation en matière d’IA, en particulier dans les domaines de la santé et des sciences de la vie, est devenue de plus en plus répandue.
Depuis l’automne dernier, des rumeurs circulent sur un changement d’approche des États-Unis en matière de réglementation de l’IA. Le président Donald J. Trump a récemment inversé de nombreuses décisions prises par l’administration Biden concernant la réglementation spécifique de l’IA. De même, l’Union européenne a abandoné ses efforts pour adopter la proposition de directive sur la responsabilité de l’IA, en introduisant un programme de travail qui semble favoriser une approche plus propice à l’innovation.
Le Royaume-Uni, quant à lui, a également adopté un discours pro-innovation dans ses politiques relatives à l’IA. Toutefois, son approche réglementaire diffère de celle de l’UE et des États-Unis : il ne crée pas de réglementations spécifiques à l’IA, mais cherche à réviser et à adapter la législation existante pour soutenir les développeurs d’IA tout en protégeant le public.
Défis de la réglementation de l’IA médicale
À mesure que les outils d’IA en santé surpassent les humains dans certaines tâches, l’équilibre entre l’autonomie de l’IA et la surveillance humaine devient de plus en plus complexe. Les questions de responsabilité et de responsabilité civile sont désormais au premier plan pour les régulateurs, les développeurs et les cliniciens.
Pour aborder ces défis, une collaboration a eu lieu avec le Centre de Droit, Médecine et Sciences de la Vie pour explorer comment les divers régimes réglementaires s’entrecroisent, notamment la loi sur les dispositifs médicaux, l’Acte de l’IA de l’UE, et les lois sur la protection des données. Cette initiative a permis de soulever des questions cruciales pour les décideurs politiques et les régulateurs qui cherchent à établir un cadre clair pour la responsabilité en matière d’IA médicale.
Données de santé synthétiques
Les données synthétiques présentent un potentiel considérable pour le développement de l’IA en tant que dispositif médical, en particulier dans les domaines où les données réelles sont limitées ou coûteuses à obtenir. Cependant, l’utilisation de ces données, notamment lorsqu’elles constituent une part centrale des soumissions réglementaires, nécessite des clarifications supplémentaires.
Des partenariats sont en cours pour développer des principes directeurs qui facilitent le dialogue entre les fabricants et les organismes d’approbation, afin d’assurer que les attentes réglementaires évoluent avec l’innovation.
Surveillance post-commercialisation de l’IA médicale
Une fois en usage, les dispositifs médicaux basés sur l’IA présentent des défis pour la réglementation en raison des modifications potentielles qui peuvent affecter leur sécurité et leur performance. Le programme AI Airlock de la MHRA adopte une approche innovante pour identifier et résoudre les défis réglementaires posés par l’IA.
Thèmes importants à travers les projets
- Réglementation agile et alignement international : Avec l’accélération des capacités de l’IA, les régulateurs doivent être prêts à répondre de manière dynamique. Cela inclut non seulement des efforts nationaux, mais aussi un alignement réglementaire accru à travers les frontières.
- Préoccupations réglementaires et éthiques : Bien qu’elles ne dominent pas le discours actuel, ces préoccupations doivent être prises au sérieux, en particulier dans le domaine de la santé.
- Ressources : Assurer que les régulateurs disposent des ressources nécessaires pour suivre le rythme des technologies en évolution rapide est essentiel pour maintenir la confiance du public.
Il est crucial de promouvoir l’adoption responsable des technologies d’IA qui soient à la fois innovantes et bénéfiques pour les résultats des patients.