Qu’est-ce que la transparence en IA ?
La transparence en intelligence artificielle (IA) aide les utilisateurs à accéder à des informations cruciales pour mieux comprendre comment un système d’IA a été créé et comment il prend des décisions.
Les chercheurs décrivent parfois l’intelligence artificielle comme une « boîte noire« , car il est souvent difficile d’expliquer, de gérer et de réguler les résultats de l’IA en raison de la complexité croissante de cette technologie. La transparence en IA permet d’ouvrir cette boîte noire pour mieux comprendre les résultats de l’IA et comment les modèles prennent des décisions.
Un nombre croissant d’industries à enjeux élevés (y compris la finance, la santé, les ressources humaines et l’application de la loi) comptent sur des modèles d’IA pour la prise de décision. Améliorer la compréhension des personnes concernant la manière dont ces modèles sont entraînés et comment ils déterminent les résultats renforce la confiance dans les décisions de l’IA et les organisations qui les utilisent.
Pourquoi la transparence en IA est-elle importante ?
Les applications d’IA, telles que les chatbots génératifs et les moteurs de recommandation, sont désormais utilisées par des millions de personnes à travers le monde chaque jour. La transparence sur le fonctionnement de ces outils d’IA peut ne pas être une préoccupation dans le cadre de décisions à faible enjeu : si le modèle se révèle inexact ou biaisé, les utilisateurs peuvent juste perdre un peu de temps ou d’argent.
Cependant, de plus en plus de secteurs adoptent des applications d’IA pour informer des décisions à enjeux élevés. Par exemple, l’IA aide désormais les entreprises et les utilisateurs à prendre des choix d’investissement, à établir des diagnostics médicaux, à faire des décisions d’embauche, et bien plus encore. Dans ces cas, les conséquences potentielles de résultats biaisés ou inexacts de l’IA peuvent être beaucoup plus graves.
Pour que les parties prenantes aient confiance dans le fait que l’IA prend des décisions efficaces et équitables en leur nom, elles ont besoin de visibilité sur le fonctionnement des modèles, la logique des algorithmes et la manière dont le modèle est évalué pour son exactitude et son équité.
Réglementations et cadres de transparence en IA
Le réseau de réglementations entourant l’utilisation de l’IA évolue constamment. Des processus de modèle transparents sont essentiels pour se conformer à ces réglementations et répondre aux demandes des validateurs de modèles, des auditeurs et des régulateurs. La Loi sur l’IA de l’UE est considérée comme le premier cadre réglementaire complet pour l’IA au monde.
La Loi sur l’IA de l’UE
La Loi sur l’intelligence artificielle de l’Union européenne adopte une approche basée sur le risque pour la réglementation, appliquant différentes règles à l’IA en fonction du risque qu’elle représente. Elle interdit certains usages de l’IA et impose des exigences strictes de gouvernance, de gestion des risques et de transparence pour d’autres.
Cadres directeurs pour la transparence en IA
La plupart des pays et des régions n’ont pas encore adopté de législation ou de réglementations complètes concernant l’utilisation de l’IA; cependant, plusieurs cadres existants orientent le développement et l’utilisation responsable de l’IA.
Exemples notables incluent :
- Ordonnance exécutive de la Maison Blanche sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle : Cette ordonnance, publiée le 30 octobre 2023, aborde la transparence dans plusieurs sections.
- Plan directeur pour une loi sur les droits de l’IA : Ce plan est un ensemble de cinq principes et pratiques associés pour guider la conception, l’utilisation et le déploiement des systèmes d’IA.
- Cadre politique complet du processus d’IA de Hiroshima : Lancé en 2023, ce cadre appelle les organisations à respecter 11 principes, dont plusieurs encouragent la publication de rapports de transparence.
Défis de la transparence en IA
Les pratiques de transparence en IA présentent de nombreux avantages, mais elles soulèvent également des problèmes de sûreté et de confidentialité. Par exemple, plus d’informations sont fournies sur le fonctionnement interne d’un projet d’IA, plus il peut être facile pour des hackers d’exploiter des vulnérabilités.
Il existe également un défi lié à la protection de la propriété intellectuelle. D’autres obstacles incluent la difficulté d’expliquer clairement des programmes complexes et des algorithmes d’apprentissage automatique à des non-experts et le manque de normes de transparence à l’échelle mondiale pour l’IA.