Responsabilité dans la conception de l’IA

A chain link

Responsabilité en matière d’IA

Les concepteurs et développeurs d’IA ont la responsabilité de prendre en compte la conception, le développement, les processus de décision et les résultats des systèmes d’IA. La jugement humain joue un rôle crucial tout au long d’un système de décisions logiques apparemment objectif. Ce sont les humains qui écrivent les algorithmes, qui définissent le succès ou l’échec, qui prennent des décisions sur l’utilisation des systèmes et qui peuvent être affectés par les résultats d’un système.

Chaque personne impliquée dans la création d’une IA à n’importe quelle étape est responsable de considérer l’impact du système dans le monde, tout comme les entreprises investies dans son développement.

Actions recommandées

01
Rendez les politiques de l’entreprise claires et accessibles aux équipes de conception et de développement dès le premier jour afin qu’aucun membre ne soit confus au sujet des questions de responsabilité ou de responsabilité. En tant que concepteur ou développeur d’IA, il est de votre responsabilité de savoir.

02
Comprenez où se termine la responsabilité de l’entreprise/du logiciel. Vous n’avez peut-être pas de contrôle sur la façon dont les données ou un outil seront utilisés par un utilisateur, un client ou une autre source externe.

03
Tenez des registres détaillés de vos processus de conception et de prise de décision. Déterminez une stratégie pour conserver des dossiers pendant le processus de conception et de développement afin d’encourager les meilleures pratiques et d’inciter à l’itération.

04
Respectez les directives de conduite professionnelle de votre entreprise. Comprenez également les lois, réglementations et directives nationales et internationales auxquelles votre IA doit se conformer.

Selon un sondage, près de 50% des développeurs interrogés estiment que les humains qui créent l’IA devraient être responsables de la prise en compte des conséquences de la technologie, et non les dirigeants ou les cadres intermédiaires, mais bien les codeurs.

À considérer

  • Comprenez le fonctionnement de votre IA, même si vous ne développez pas et ne surveillez pas personnellement ses algorithmes.
  • Consultez des recherches secondaires réalisées par des sociologues, des linguistes, des comportementalistes et d’autres professionnels pour comprendre les problématiques éthiques dans un contexte holistique.

Questions pour votre équipe

  • Comment la responsabilité change-t-elle en fonction des niveaux d’influence des utilisateurs sur un système d’IA ?
  • L’IA doit-elle être intégrée dans un processus décisionnel humain, prend-elle des décisions de manière autonome ou s’agit-il d’un hybride ?
  • Comment notre équipe tiendra-t-elle des registres de notre processus ?
  • Comment suivrons-nous les choix et considérations éthiques après le lancement de l’IA ?
  • Les nouveaux venus dans notre projet pourront-ils comprendre nos dossiers ?

Exemple de responsabilité

L’équipe utilise des chercheurs en design pour contacter de vrais invités dans les hôtels afin de comprendre leurs désirs et besoins par le biais d’entretiens utilisateurs en face à face. L’équipe considère sa propre responsabilité lorsque les retours d’un assistant hôtelier ne répondent pas aux attentes des clients. Elle a mis en place un cycle d’apprentissage de feedback pour mieux comprendre les préférences et a souligné la possibilité pour un invité de désactiver l’IA à tout moment durant son séjour.

Articles

Réglementations AI : L’Acte historique de l’UE face aux garde-fous australiens

Les entreprises mondiales adoptant l'intelligence artificielle doivent comprendre les réglementations internationales sur l'IA. L'Union européenne et l'Australie ont adopté des approches différentes...

Politique AI du Québec : Vers une éducation supérieure responsable

Le gouvernement du Québec a enfin publié une politique sur l'IA pour les universités et les CÉGEPs, presque trois ans après le lancement de ChatGPT. Bien que des préoccupations subsistent quant à la...

L’alphabétisation en IA : un nouveau défi de conformité pour les entreprises

L'adoption de l'IA dans les entreprises connaît une accélération rapide, mais cela pose un défi en matière de compréhension des outils. La loi sur l'IA de l'UE exige désormais que tout le personnel, y...

L’Allemagne se prépare à appliquer la loi sur l’IA pour stimuler l’innovation

Les régulateurs existants seront responsables de la surveillance de la conformité des entreprises allemandes avec la loi sur l'IA de l'UE, avec un rôle renforcé pour l'Agence fédérale des réseaux...

Urgence d’une régulation mondiale de l’IA d’ici 2026

Des dirigeants mondiaux et des pionniers de l'IA appellent l'ONU à établir des sauvegardes mondiales contraignantes pour l'IA d'ici 2026. Cette initiative vise à garantir la sécurité et l'éthique dans...

Gouvernance de l’IA dans une économie de confiance zéro

En 2025, la gouvernance de l'IA doit s'aligner avec les principes d'une économie de zéro confiance, garantissant que les systèmes d'IA sont responsables et transparents. Cela permet aux entreprises de...

Un nouveau cadre de gouvernance pour l’IA : vers un secrétariat technique

Le prochain cadre de gouvernance sur l'intelligence artificielle pourrait comporter un "secrétariat technique" pour coordonner les politiques de l'IA entre les départements gouvernementaux. Cela...

Innovations durables grâce à la sécurité de l’IA dans les pays du Global Majority

L'article discute de l'importance de la sécurité et de la sûreté de l'IA pour favoriser l'innovation dans les pays de la majorité mondiale. Il souligne que ces investissements ne sont pas des...

Vers une gouvernance de l’IA cohérente pour l’ASEAN

L'ASEAN adopte une approche de gouvernance de l'IA fondée sur des principes volontaires, cherchant à équilibrer l'innovation et la réglementation tout en tenant compte de la diversité des États...