L’Acte sur l’IA de l’UE : Un Cadre pour Innover en Toute Sécurité

A key

L’Acte AI de l’UE : un guide pour l’innovation des conseillers juridiques, pas des barrières

Les leaders des départements juridiques explorent de plus en plus comment l’intelligence artificielle générative peut accroître l’efficacité et l’innovation. Cependant, des lacunes entre les aspects pratiques et techniques de l’application de l’IA générative, les meilleures pratiques à cet égard et les directives réglementaires abstraites compliquent l’équilibre entre innovation rapide et atténuation responsable des risques.

Comme lors des précédents cycles de disruption technologique, cette tension entourant l’IA soulève la question de savoir si la réglementation aide ou entrave le progrès.

Avec toute technologie, et l’IA ne fait pas exception, il existe des défis pour atteindre la conformité réglementaire lors du lancement de nouvelles technologies. Le premier défi est simplement de comprendre les règles qui s’appliquent à travers différentes juridictions et comment elles peuvent se chevaucher avec d’autres lois. Par exemple, le cadre de conformité d’une entreprise pour une loi sur la protection des données dans un état peut-il compromettre son cadre de conformité antitrust ou ses exigences de reporting gouvernemental ?

Ajouter l’IA à l’équation floute encore plus les lignes, car l’implémentation de l’IA peut introduire des problèmes dans un certain nombre d’activités d’entreprise, en plus des exigences fixées par les lois spécifiques à l’IA émergentes à travers les États-Unis et le monde.

Garde-fous de conformité

Une fois que les organisations ont cartographié ce réseau complexe d’exigences qui se chevauchent, il leur faut mettre en œuvre des politiques et des procédures qui serviront de garde-fous de conformité. Cela peut être un défi, en particulier alors que les réglementations tentent de suivre le rythme rapide du changement technologique.

Certaines personnes peuvent considérer ces défis comme des barrières à l’innovation, mais les organisations peuvent tirer parti des exigences de conformité comme un moyen de vérifier le risque potentiel—et un plan pour une innovation responsable.

Par exemple, un rapport a révélé qu’une majorité de directeurs juridiques sont prudents quant à l’utilisation de l’IA générative par leur organisation, reconnaissant le potentiel de pièges et la nécessité d’une gouvernance solide.

Dans ce rapport, les répondants ont identifié plus de 15 domaines uniques de préoccupation concernant l’utilisation de l’IA générative au sein de leurs organisations. La sécurité était en tête de liste, mais les conseillers juridiques ont également mentionné la défendabilité, la création de contenu nuisible, les problèmes réglementaires, le biais, l’éthique, la protection des données, et plus encore. De plus, 85 % ont déclaré qu’ils étaient peu ou pas du tout préparés aux risques entourant l’IA générative.

Guide d’innovation

Les leaders juridiques qui se sentent mal préparés à faire face à cette large gamme de risques peuvent considérer l’Acte AI de l’UE et d’autres réglementations comme des points de repère pour innover tout en évitant des risques indus. Les recommandations initiales de la Commission européenne visent à traiter des domaines tels que la définition de l’IA et les pratiques AI prohibées.

Ces recommandations complètent les dispositions de l’Acte AI de l’UE interdisant certains systèmes AI et imposant des exigences de littératie AI au sein des organisations introduisant de nouvelles formes d’IA. Des dispositions supplémentaires pour la gouvernance de l’IA générative et la confidentialité entreront en vigueur à partir d’août 2025, aux côtés des dispositions pénales de la loi.

Lorsque les organisations comprennent comment les régulateurs définissent les pratiques problématiques, comment ils s’attendent à ce que les entreprises les évitent, et ce qui constitue un préjudice dans les applications AI, elles peuvent se préparer aux domaines de préoccupation les plus cités tels que le biais et l’éthique. Cela permet aux organisations d’avancer dans la technologie avec un ensemble de contrôles et d’équilibres réduisant le potentiel d’erreurs.

Réglementation au niveau des produits

L’Acte AI de l’UE et d’autres lois AI émergentes introduisent également une réglementation au niveau des produits pour les systèmes jugés inacceptables ou à haut risque pour les individus et la société.

Les utilisations à haut risque sont couvertes par des exigences strictes, telles que la journalisation des activités pour garantir que les résultats peuvent être tracés, des processus robustes d’évaluation et d’atténuation des risques, une documentation détaillée de toutes les activités, un niveau élevé de sûreté et d’exactitude, et plus encore. Ce sont des éléments fondamentaux importants qui aident les organisations à incorporer les meilleures pratiques dans leurs activités d’innovation produit.

La Commission européenne a indiqué que la plupart des systèmes AI en usage relèvent de catégories de risque limité, minimal ou nul. Les deux dernières catégories n’ont aucune restriction, tandis que les systèmes à risque limité doivent répondre à certaines exigences de transparence. Cela inclut des obligations de divulgation pour s’assurer que les humains sont informés lorsqu’ils interagissent avec l’IA et pour garantir un étiquetage clair du contenu généré par l’IA.

Suivre ces lignes directrices peut soutenir les préoccupations des organisations concernant la transparence et la défendabilité, qui figuraient parmi les principales questions soulevées dans le rapport des conseillers juridiques.

L’Acte AI de l’UE est étroitement aligné sur le Règlement général sur la protection des données, fournissant une directive pour le maintien des normes de protection des données dans les systèmes AI. Bien que cela puisse sembler être un facteur de complication dans le programme de protection des données d’une organisation, cela permet en réalité aux organisations de comprendre comment prévenir les abus d’informations personnelles ou les violations de la protection des données dans leurs initiatives AI.

L’IA générative a suscité plus de spéculation et d’expérimentation dans le domaine juridique que toute autre technologie depuis des décennies, avec des opportunités de créer des efficacités et de transformer des processus, mais cela doit s’aligner avec la gestion des risques. Avec une approche équilibrée, les organisations peuvent utiliser la conformité pour permettre l’innovation et faciliter des approches proactives et durables aux préoccupations qui fonctionnent en tandem avec la conception et l’expérimentation technologique.

Articles

L’impact de l’AI Act de l’UE sur l’avenir de l’industrie pharmaceutique

Les experts prévoient des difficultés alors que le secteur des sciences de la vie s'adapte à la loi sur l'IA de l'UE. Bien que la loi puisse protéger les citoyens, certaines préoccupations demeurent...

L’ère des agents IA : Pourquoi la gouvernance est essentielle pour réussir

Le PDG de Boomi, Steve Lucas, souligne l'importance d'un plan de gouvernance pour l'utilisation des agents d'intelligence artificielle, affirmant que sans cela, les entreprises échoueront. Il met en...

Gouvernance de l’IA : enjeux et opportunités pour les professionnels de la sécurité

L'intelligence artificielle (IA) a un large impact sur les lignes de business, y compris la cybersécurité, avec de nombreuses organisations adoptant des outils d'IA générative pour des fins de...

Technologie de reconnaissance faciale : enjeux et controverses

Le gouvernement britannique a été critiqué pour le déploiement de la technologie de reconnaissance faciale sans avoir d'abord établi un cadre juridique complet. L'Institut Ada Lovelace a averti que...

L’essor des start-ups de gouvernance pour une IA responsable

Avec l'essor de l'IA, la demande de solutions de gouvernance augmente considérablement. L'industrie mondiale de la gouvernance de l'IA, qui valait 890 millions de dollars l'année dernière, devrait...

Moratoire de 10 ans sur les lois étatiques sur l’IA : enjeux et implications

Hier, la Chambre des représentants des États-Unis a approuvé un paquet budgétaire qui inclut un moratoire de dix ans sur l'application des lois étatiques sur l'IA. Tech Policy Press recherche des...

L’IA devant le juge : 500 cas qui redéfinissent la jurisprudence

À travers le monde, la réglementation de l'intelligence artificielle (IA) est inégale. Les tribunaux jouent déjà un rôle dans la régulation de l'IA en résolvant des litiges où les systèmes d'IA sont...

AI Responsable : Entre Ambitions et Réalités

L'intelligence artificielle responsable se transforme d'un mot à la mode impressionnant en une nécessité commerciale critique, surtout alors que les entreprises de la région Asie-Pacifique s'efforcent...

Gouvernance de l’IA : Pourquoi le droit doit prendre les rênes

Dans cette interview, Brooke Johnson, avocate en chef d'Ivanti, explore les responsabilités légales en matière de gouvernance de l'IA. Elle souligne l'importance de la collaboration interfonctionnelle...