Transparence : la clé pour instaurer la confiance dans l’IA

A transparent puzzle piece

Construire la confiance dans l’IA : le cas de la transparence

L’IA transforme rapidement le monde des affaires en devenant de plus en plus intégrée dans le tissu des organisations et de la vie quotidienne des clients. Cependant, la vitesse de cette transformation crée des risques, car les organisations doivent faire face à des défis pour déployer l’IA de manière responsable et minimiser les risques de préjudice.

Un des piliers de l’IA responsable est la transparence. Les systèmes d’IA – y compris les algorithmes eux-mêmes ainsi que les sources de données – doivent être compréhensibles afin que nous puissions comprendre comment les décisions sont prises et garantir qu’elles le sont de manière juste, impartiale et éthique.

Aujourd’hui, de nombreuses entreprises qui utilisent l’IA prennent des mesures pour garantir cela. Cependant, il y a eu des cas où l’utilisation de l’IA a été inquiétante en raison de son opacité.

IA transparente réussie

Lorsque Adobe a lancé son ensemble d’outils d’IA générative Firefly, l’entreprise a rassuré les utilisateurs en affirmant qu’elle était ouverte et transparente sur les données utilisées pour former ses modèles, contrairement à d’autres outils d’IA générative, comme Dall-E d’OpenAI. Adobe a publié des informations sur toutes les images utilisées, ainsi que des garanties qu’elle possédait tous les droits sur ces images ou qu’elles étaient dans le domaine public. Cela signifie que les utilisateurs peuvent faire des choix éclairés sur la confiance qu’ils accordent à cet outil.

Salesforce inclut la transparence comme un élément important de l’exactitude – l’une de ses cinq lignes directrices pour développer une IA de confiance. Cela signifie qu’ils prennent des mesures pour clarifier lorsque l’IA fournit des réponses dont elle n’est pas entièrement sûre. Cela inclut la citation de sources et la mise en évidence des domaines que les utilisateurs de leurs outils pourraient vouloir vérifier pour s’assurer qu’il n’y a pas eu d’erreurs.

Le SDK Python de Microsoft pour Azure Machine Learning comprend une fonction appelée explainability des modèles, qui, dans les versions récentes, est activée par défaut. Cela donne aux développeurs des aperçus sur l’interprétabilité, leur permettant de comprendre les décisions et de s’assurer qu’elles sont prises de manière équitable et éthique.

IA transparente mal réalisée

OpenAI, créateur de ChatGPT et du modèle de génération d’images Dall-E, a été accusé de ne pas être transparent sur les données utilisées pour former ses modèles. Cela a conduit à des poursuites judiciaires de la part d’artistes et d’écrivains affirmant que leur matériel avait été utilisé sans permission. Certains pensent que les utilisateurs d’OpenAI pourraient faire face à des actions en justice à l’avenir si les titulaires de droits d’auteur réussissent à soutenir que le matériel créé avec l’aide des outils d’OpenAI enfreint également leurs droits de propriété intellectuelle. Cet exemple démontre comment l’opacité entourant les données d’apprentissage peut potentiellement conduire à une rupture de confiance entre un fournisseur de services d’IA et ses clients.

D’autres générateurs d’images, y compris Imagen de Google et Midjourney, ont été critiqués pour avoir représenté de manière excessive des professionnels comme des hommes blancs et pour leurs inexactitudes historiques, comme montrer les Pères fondateurs des États-Unis et les soldats nazis allemands comme des personnes de couleur. Le manque de transparence dans la prise de décision de l’IA empêche les développeurs d’identifier et de corriger facilement ces problèmes.

Dans le secteur bancaire et de l’assurance, l’IA est de plus en plus utilisée pour évaluer les risques et détecter la fraude. Si ces systèmes ne sont pas transparents, cela pourrait conduire à ce que des clients se voient refuser du crédit, voient leurs transactions bloquées ou même fassent face à des enquêtes criminelles sans comprendre pourquoi ils ont été ciblés ou mis sous suspicion.

Plus inquiétant encore, les dangers posés par l’absence de transparence autour des systèmes et des données utilisés dans le domaine de la santé. À mesure que l’IA est de plus en plus utilisée pour des tâches courantes, comme repérer des signes de cancer dans les images médicales, des données biaisées peuvent entraîner des erreurs dangereuses et des résultats pour les patients encore pires. Sans mesures en place pour garantir la transparence, les données biaisées sont moins susceptibles d’être identifiées et supprimées des systèmes utilisés pour former les outils d’IA.

Les avantages de l’IA transparente

Assurer que l’IA est déployée de manière transparente est essentiel pour construire la confiance avec les clients. Ils souhaitent savoir quoi, comment et pourquoi les décisions sont prises avec leurs données et ont une méfiance inhérente envers les machines à boîte noire qui refusent d’expliquer ce qu’elles font.

De plus, cela nous permet d’identifier et d’éliminer les problèmes pouvant être causés par des données biaisées, en veillant à ce que toutes les données utilisées soient soigneusement auditées et nettoyées.

Enfin, la réglementation autour de l’IA est en augmentation. Des législations telles que le prochain EU AI Act stipulent spécifiquement que les systèmes d’IA dans des cas d’utilisation critiques doivent être transparents et explicables. Cela signifie que les entreprises utilisant une IA opaque et à boîte noire pourraient s’exposer à de lourdes amendes.

Construire la transparence et la responsabilité dans les systèmes d’IA est de plus en plus considéré comme une partie critique du développement d’une IA éthique et responsable. Bien que la nature hautement complexe des modèles d’IA avancés d’aujourd’hui signifie que cela n’est pas toujours simple, c’est un défi qui devra être relevé si l’IA veut réaliser son potentiel pour créer un changement positif et de la valeur.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...