L’Acte AI de l’UE : un guide pour l’innovation des conseillers juridiques, pas des barrières
Les leaders des départements juridiques explorent de plus en plus comment l’intelligence artificielle générative peut accroître l’efficacité et l’innovation. Cependant, des lacunes entre les aspects pratiques et techniques de l’application de l’IA générative, les meilleures pratiques à cet égard et les directives réglementaires abstraites compliquent l’équilibre entre innovation rapide et atténuation responsable des risques.
Comme lors des précédents cycles de disruption technologique, cette tension entourant l’IA soulève la question de savoir si la réglementation aide ou entrave le progrès.
Avec toute technologie, et l’IA ne fait pas exception, il existe des défis pour atteindre la conformité réglementaire lors du lancement de nouvelles technologies. Le premier défi est simplement de comprendre les règles qui s’appliquent à travers différentes juridictions et comment elles peuvent se chevaucher avec d’autres lois. Par exemple, le cadre de conformité d’une entreprise pour une loi sur la protection des données dans un état peut-il compromettre son cadre de conformité antitrust ou ses exigences de reporting gouvernemental ?
Ajouter l’IA à l’équation floute encore plus les lignes, car l’implémentation de l’IA peut introduire des problèmes dans un certain nombre d’activités d’entreprise, en plus des exigences fixées par les lois spécifiques à l’IA émergentes à travers les États-Unis et le monde.
Garde-fous de conformité
Une fois que les organisations ont cartographié ce réseau complexe d’exigences qui se chevauchent, il leur faut mettre en œuvre des politiques et des procédures qui serviront de garde-fous de conformité. Cela peut être un défi, en particulier alors que les réglementations tentent de suivre le rythme rapide du changement technologique.
Certaines personnes peuvent considérer ces défis comme des barrières à l’innovation, mais les organisations peuvent tirer parti des exigences de conformité comme un moyen de vérifier le risque potentiel—et un plan pour une innovation responsable.
Par exemple, un rapport a révélé qu’une majorité de directeurs juridiques sont prudents quant à l’utilisation de l’IA générative par leur organisation, reconnaissant le potentiel de pièges et la nécessité d’une gouvernance solide.
Dans ce rapport, les répondants ont identifié plus de 15 domaines uniques de préoccupation concernant l’utilisation de l’IA générative au sein de leurs organisations. La sécurité était en tête de liste, mais les conseillers juridiques ont également mentionné la défendabilité, la création de contenu nuisible, les problèmes réglementaires, le biais, l’éthique, la protection des données, et plus encore. De plus, 85 % ont déclaré qu’ils étaient peu ou pas du tout préparés aux risques entourant l’IA générative.
Guide d’innovation
Les leaders juridiques qui se sentent mal préparés à faire face à cette large gamme de risques peuvent considérer l’Acte AI de l’UE et d’autres réglementations comme des points de repère pour innover tout en évitant des risques indus. Les recommandations initiales de la Commission européenne visent à traiter des domaines tels que la définition de l’IA et les pratiques AI prohibées.
Ces recommandations complètent les dispositions de l’Acte AI de l’UE interdisant certains systèmes AI et imposant des exigences de littératie AI au sein des organisations introduisant de nouvelles formes d’IA. Des dispositions supplémentaires pour la gouvernance de l’IA générative et la confidentialité entreront en vigueur à partir d’août 2025, aux côtés des dispositions pénales de la loi.
Lorsque les organisations comprennent comment les régulateurs définissent les pratiques problématiques, comment ils s’attendent à ce que les entreprises les évitent, et ce qui constitue un préjudice dans les applications AI, elles peuvent se préparer aux domaines de préoccupation les plus cités tels que le biais et l’éthique. Cela permet aux organisations d’avancer dans la technologie avec un ensemble de contrôles et d’équilibres réduisant le potentiel d’erreurs.
Réglementation au niveau des produits
L’Acte AI de l’UE et d’autres lois AI émergentes introduisent également une réglementation au niveau des produits pour les systèmes jugés inacceptables ou à haut risque pour les individus et la société.
Les utilisations à haut risque sont couvertes par des exigences strictes, telles que la journalisation des activités pour garantir que les résultats peuvent être tracés, des processus robustes d’évaluation et d’atténuation des risques, une documentation détaillée de toutes les activités, un niveau élevé de sûreté et d’exactitude, et plus encore. Ce sont des éléments fondamentaux importants qui aident les organisations à incorporer les meilleures pratiques dans leurs activités d’innovation produit.
La Commission européenne a indiqué que la plupart des systèmes AI en usage relèvent de catégories de risque limité, minimal ou nul. Les deux dernières catégories n’ont aucune restriction, tandis que les systèmes à risque limité doivent répondre à certaines exigences de transparence. Cela inclut des obligations de divulgation pour s’assurer que les humains sont informés lorsqu’ils interagissent avec l’IA et pour garantir un étiquetage clair du contenu généré par l’IA.
Suivre ces lignes directrices peut soutenir les préoccupations des organisations concernant la transparence et la défendabilité, qui figuraient parmi les principales questions soulevées dans le rapport des conseillers juridiques.
L’Acte AI de l’UE est étroitement aligné sur le Règlement général sur la protection des données, fournissant une directive pour le maintien des normes de protection des données dans les systèmes AI. Bien que cela puisse sembler être un facteur de complication dans le programme de protection des données d’une organisation, cela permet en réalité aux organisations de comprendre comment prévenir les abus d’informations personnelles ou les violations de la protection des données dans leurs initiatives AI.
L’IA générative a suscité plus de spéculation et d’expérimentation dans le domaine juridique que toute autre technologie depuis des décennies, avec des opportunités de créer des efficacités et de transformer des processus, mais cela doit s’aligner avec la gestion des risques. Avec une approche équilibrée, les organisations peuvent utiliser la conformité pour permettre l’innovation et faciliter des approches proactives et durables aux préoccupations qui fonctionnent en tandem avec la conception et l’expérimentation technologique.