Les agents d’IA transforment la recherche scientifique, mais soulèvent des enjeux éthiques
Sans une supervision claire, les agents d’IA risquent de créer un dangereux « fossé de responsabilité », avertissent des experts.
Les agents d’intelligence artificielle commencent à transformer la recherche scientifique, avec des systèmes désormais capables de travailler de manière autonome pour générer des hypothèses, réaliser des expériences et rédiger des manuscrits complets.
Cependant, l’utilisation généralisée des agents d’IA pourrait créer un « fossé de responsabilité » en science. Les auteurs d’un nouvel essai mettent en garde que la dépendance excessive aux systèmes d’IA pourrait laisser sans réponse claire la responsabilité humaine en cas d’erreurs, de résultats biaisés ou d’informations fabriquées causant des dommages — particulièrement dans un domaine à enjeux élevés comme la médecine. Ils avertissent également que l’automatisation des tâches de recherche routinières pourrait éroder des compétences essentielles et affaiblir la formation des futurs scientifiques.
Points essentiels
- Les institutions de recherche pourraient avoir besoin de nouveaux rôles, tels que des spécialistes de validation de l’IA, pour superviser le travail assisté par l’IA.
- La formation éthique en science devrait s’élargir pour inclure la littératie en IA et la détection des biais.
- Certaines décisions — comme les attributions de financement ou les approbations de publication — pourraient justifier des limites strictes sur l’automatisation.
- Les décideurs et les revues joueront probablement un rôle central dans l’établissement de normes pour une utilisation responsable de l’IA.
- Les auteurs concluent que l’avenir de l’IA dans la science dépendra moins de la capacité technologique et plus des structures de gouvernance mises en place autour d’elle.