Responsabilité dans la conception de l’IA

A chain link

Responsabilité en matière d’IA

Les concepteurs et développeurs d’IA ont la responsabilité de prendre en compte la conception, le développement, les processus de décision et les résultats des systèmes d’IA. La jugement humain joue un rôle crucial tout au long d’un système de décisions logiques apparemment objectif. Ce sont les humains qui écrivent les algorithmes, qui définissent le succès ou l’échec, qui prennent des décisions sur l’utilisation des systèmes et qui peuvent être affectés par les résultats d’un système.

Chaque personne impliquée dans la création d’une IA à n’importe quelle étape est responsable de considérer l’impact du système dans le monde, tout comme les entreprises investies dans son développement.

Actions recommandées

01
Rendez les politiques de l’entreprise claires et accessibles aux équipes de conception et de développement dès le premier jour afin qu’aucun membre ne soit confus au sujet des questions de responsabilité ou de responsabilité. En tant que concepteur ou développeur d’IA, il est de votre responsabilité de savoir.

02
Comprenez où se termine la responsabilité de l’entreprise/du logiciel. Vous n’avez peut-être pas de contrôle sur la façon dont les données ou un outil seront utilisés par un utilisateur, un client ou une autre source externe.

03
Tenez des registres détaillés de vos processus de conception et de prise de décision. Déterminez une stratégie pour conserver des dossiers pendant le processus de conception et de développement afin d’encourager les meilleures pratiques et d’inciter à l’itération.

04
Respectez les directives de conduite professionnelle de votre entreprise. Comprenez également les lois, réglementations et directives nationales et internationales auxquelles votre IA doit se conformer.

Selon un sondage, près de 50% des développeurs interrogés estiment que les humains qui créent l’IA devraient être responsables de la prise en compte des conséquences de la technologie, et non les dirigeants ou les cadres intermédiaires, mais bien les codeurs.

À considérer

  • Comprenez le fonctionnement de votre IA, même si vous ne développez pas et ne surveillez pas personnellement ses algorithmes.
  • Consultez des recherches secondaires réalisées par des sociologues, des linguistes, des comportementalistes et d’autres professionnels pour comprendre les problématiques éthiques dans un contexte holistique.

Questions pour votre équipe

  • Comment la responsabilité change-t-elle en fonction des niveaux d’influence des utilisateurs sur un système d’IA ?
  • L’IA doit-elle être intégrée dans un processus décisionnel humain, prend-elle des décisions de manière autonome ou s’agit-il d’un hybride ?
  • Comment notre équipe tiendra-t-elle des registres de notre processus ?
  • Comment suivrons-nous les choix et considérations éthiques après le lancement de l’IA ?
  • Les nouveaux venus dans notre projet pourront-ils comprendre nos dossiers ?

Exemple de responsabilité

L’équipe utilise des chercheurs en design pour contacter de vrais invités dans les hôtels afin de comprendre leurs désirs et besoins par le biais d’entretiens utilisateurs en face à face. L’équipe considère sa propre responsabilité lorsque les retours d’un assistant hôtelier ne répondent pas aux attentes des clients. Elle a mis en place un cycle d’apprentissage de feedback pour mieux comprendre les préférences et a souligné la possibilité pour un invité de désactiver l’IA à tout moment durant son séjour.

Articles

L’UE face aux défis de l’IA : réglementation stricte contre innovation américaine

Dans un récent épisode du podcast "Regulating AI", le Dr Cari Miller a discuté des implications mondiales du Plan d'action sur l'IA des États-Unis, soulignant l'équilibre délicat entre innovation et...

Les risques méconnus de l’IA dans les entreprises

L'IA devient de plus en plus présente dans les lieux de travail, mais de nombreuses entreprises ignorent les risques associés. Il est essentiel d'établir des principes de conformité et de gouvernance...

Investir dans la sécurité de l’IA pour un avenir responsable

La révolution de l'intelligence artificielle est désormais une réalité, transformant les industries et la vie quotidienne. Pour les investisseurs, cela représente une opportunité en or d'exploiter un...

L’impact croissant de l’IA sur la sécurité publique

Les agences de maintien de l'ordre (LEAs) utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur fonctionnement, en particulier grâce à des capacités accrues pour la police...

Kenya à l’avant-garde de la gouvernance mondiale de l’IA

Le Kenya a remporté une victoire diplomatique majeure après que les 193 États membres des Nations Unies ont convenu à l'unanimité de créer deux institutions marquantes pour gouverner l'intelligence...

Cadre de gouvernance de l’IA : Un appel à l’action

Les parties prenantes ont appelé au développement d'un cadre de gouvernance de l'intelligence artificielle (IA) pour garantir son déploiement responsable lors de la 17e conférence annuelle de...

Nouvelles recommandations sur l’adoption de l’IA pour les responsables marketing en santé

Avec l'expansion rapide des outils d'intelligence artificielle, les directeurs marketing et autres leaders du secteur de la santé doivent mettre en place des politiques pour l'adoption et la...

Nouveau dialogue mondial sur la gouvernance de l’IA à l’ONU

L'Assemblée générale des Nations Unies a adopté une résolution visant à établir un panel scientifique international indépendant sur l'intelligence artificielle et un dialogue mondial sur la...

Menaces cybernétiques : l’essor de l’IA et ses risques pour la sécurité

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les industries, offrant aux organisations de nouveaux outils pour l'efficacité et la croissance. Cependant, leur adoption...