Une éthique de l’IA nécessite des dispositions humaines, pas des codes universels
Les efforts pour gouverner l’intelligence artificielle (IA) se sont largement concentrés sur la prévention des dommages et l’application de la conformité, mais les experts avertissent que l’éthique va au-delà de la réglementation. Dans de nombreuses situations quotidiennes, les systèmes d’IA doivent naviguer dans des choix moraux qui dépendent des valeurs individuelles plutôt que des mandats légaux.
Une éthique personnalisée pour l’IA
Ce défi est examiné dans une étude qui propose un modèle computationnel pour intégrer les préférences morales personnelles dans les systèmes d’IA. La recherche soutient que l’IA éthique doit tenir compte des différences de jugement des individus, même lorsqu’ils opèrent sous le même cadre légal.
Cette étude arrive alors que les efforts de réglementation s’intensifient, y compris la loi sur l’IA de l’Union européenne, qui priorise la sécurité, la responsabilité et la conformité légale. Bien que de tels cadres établissent des limites non négociables pour le comportement de l’IA, les auteurs soutiennent que la réglementation seule ne peut pas aborder la diversité éthique de la prise de décision humaine réelle.
L’éthique douce
Les auteurs proposent un modèle formel qui permet aux systèmes d’IA de s’adapter aux préférences morales des utilisateurs tout en restant dans des contraintes légales et éthiques. L’éthique est positionnée comme quelque chose qui émerge par l’interaction, et non pas comme un code éthique fixe intégré dans les systèmes d’IA.
La recherche remet en question l’idée que l’intégration d’un code éthique fixe dans les systèmes d’IA est suffisante. Au lieu de cela, elle positionne l’éthique comme quelque chose qui émerge de l’interaction. Les individus n’appliquent pas simplement des principes moraux abstraits, mais agissent en fonction de tendances façonnées par l’expérience, l’environnement social et le contexte.
Modéliser le comportement moral à travers les dispositions
Le modèle proposé par les chercheurs se base sur le concept de dispositions morales, qui reflètent comment un individu est enclin à agir lorsque certaines conditions sont remplies. Au lieu de traiter les préférences morales comme des règles explicites, elles sont modélisées comme des dispositions qui peuvent se manifester selon le contexte.
Les chercheurs proposent également une méthode structurée pour recueillir les dispositions morales individuelles à travers des questionnaires basés sur des scénarios. Les participants sont confrontés à des dilemmes éthiques quotidiens et doivent choisir un cours d’action tout en justifiant leur choix selon quatre dimensions évaluatives.
De la théorie à l’action éthique dans les systèmes d’IA
L’étude présente un modèle computationnel formel qui traduit les réponses humaines en profils éthiques lisibles par machine. Ces profils permettent aux systèmes d’IA de reconnaître quelles actions s’alignent le mieux avec les tendances morales d’un utilisateur dans de nouvelles situations.
Le modèle relie trois éléments : une description de la situation mondiale, un ensemble d’actions possibles et une action préférée qui reflète la disposition de l’utilisateur dans ce contexte. Lorsqu’une situation similaire se présente, le système d’IA peut comparer le nouveau contexte à ceux précédemment rencontrés et sélectionner l’action la plus cohérente avec le profil éthique de l’utilisateur.
Implications pour la conception et la gouvernance de l’IA
Pour le grand public, la recherche remet en question les récits simplistes sur l’éthique de l’IA. Elle redéfinit l’éthique de l’IA non pas comme un problème à résoudre une fois pour toutes, mais comme une négociation continue entre les individus, la technologie et les institutions.
Pour les décideurs, elle met en lumière les limites de la réglementation pour façonner le comportement éthique. Les lois peuvent interdire les dommages, mais elles ne peuvent pas dicter comment les individus priorisent l’équité, la générosité ou la responsabilité dans des situations ambiguës.
Pour les développeurs d’IA, l’étude propose une voie concrète vers une conception centrée sur l’humain. En intégrant les dispositions éthiques plutôt que des règles fixes, les systèmes peuvent devenir plus adaptatifs, transparents et respectueux de l’autonomie des utilisateurs.