Réglementation de l’IA et tendances juridiques aux États-Unis et à l’étranger
La réglementation de l’intelligence artificielle (IA) évolue rapidement, introduisant de nouveaux défis, en particulier dans le secteur de la santé. L’utilisation de l’IA et de l’apprentissage automatique (ML) s’étend au-delà des dispositifs médicaux traditionnels vers des applications innovantes telles que la génération de code et l’analyse de données.
Ces technologies jouent un rôle crucial dans l’innovation des produits qui soutiennent les professionnels de santé et améliorent les soins aux patients. Cependant, les avancées rapides en matière d’IA/ML entraînent également des défis réglementaires et juridiques significatifs, ainsi que des évolutions politiques tant aux États-Unis qu’à l’étranger.
Réglementations sur l’IA aux États-Unis : Développements fédéraux et étatiques
Aux États-Unis, un décret exécutif de l’ère Biden sur l’IA a été remplacé par l’Ordre Exécutif 14179, qui vise à minimiser l’impact de la réglementation fédérale sur l’innovation en IA. Ce changement s’inscrit dans le cadre des efforts bipartisans de 2024 pour établir l’Institut de Sécurité IA au sein de l’Institut National des Normes et de la Technologie (NIST).
Malgré les propositions de loi fédérales concernant l’utilisation de l’IA dans le secteur privé, peu de progrès ont été réalisés. En conséquence, des États comme la Californie, le Colorado et l’Utah ont adopté leurs propres lois régissant les systèmes d’IA.
Le Colorado AI Act se concentre sur les systèmes d’IA à haut risque, exigeant des développeurs qu’ils fournissent une documentation détaillée et facilitent des évaluations d’impact. Bien que la loi accorde des exemptions pour certains produits réglementés par la FDA, son impact reste incertain en raison de son langage large et ambigu.
Réglementation de l’IA dans l’Union Européenne
Dans l’Union Européenne, la Loi sur l’IA de l’UE et le Règlement Général sur la Protection des Données (RGPD) constituent les principaux cadres réglementaires. La Loi sur l’IA de l’UE définit les systèmes d’IA et impose une charge réglementaire élevée aux systèmes à haut risque, y compris de nombreux dispositifs médicaux.
Cette loi met l’accent sur la gestion des risques, la gouvernance des données, la documentation technique et la transparence tout au long du cycle de vie des systèmes d’IA. Les fabricants de dispositifs médicaux doivent se conformer à ces règles d’ici le 2 août 2026, avec des obligations supplémentaires par rapport aux réglementations actuelles.
Approche de la Chine en matière de réglementation de l’IA
La Chine adopte également une approche active en matière de réglementation de l’IA, cherchant à équilibrer la sécurité de l’IA avec des objectifs d’innovation. Pour l’instant, la réglementation chinoise se concentre principalement sur l’IA générative, mais un développement plus large de l’IA pourrait également être réglementé à l’avenir.
Considérations en matière de propriété intellectuelle
Les litiges de propriété intellectuelle (PI) sont un domaine actif du droit de l’IA, avec de nombreux cas en cours aux États-Unis concernant l’utilisation d’œuvres protégées pour entraîner des modèles d’IA/ML. Les préoccupations en matière de PI sont complexes, car l’utilisation non gérée d’outils d’IA générative risque de compromettre les droits de PI, tandis que les entreprises de sciences de la vie doivent veiller à ce que les droits de propriété ne restreignent pas leur utilisation des données.
Risques de confidentialité et de cybersécurité dans le développement de l’IA
Par ailleurs, les considérations de confidentialité et de cybersécurité continuent d’impacter l’utilisation et le développement de l’IA/ML. L’utilisation de données personnelles pour entraîner l’IA est un domaine de préoccupation majeur pour les régulateurs, tant aux États-Unis qu’à l’étranger, en particulier en ce qui concerne les données de santé.
Les entreprises doivent naviguer dans les risques liés à l’utilisation de ces informations tout en veillant à protéger la confidentialité des données d’entrée et la propriété intellectuelle face à l’utilisation des outils d’IA par les employés et les fournisseurs.
Heureusement, ces risques peuvent être atténués par une bonne information, une planification adéquate, y compris la mise en œuvre de politiques et de formations, ainsi que des évaluations des risques des fournisseurs.