Coupures dans les humanités : une vulnérabilité face à l’IA
Un étudiant en doctorat d’une université britannique étudie la confiance des utilisateurs envers l’intelligence artificielle (IA) et leur expérience avec des modèles de langage tels que ChatGPT. Cependant, son parcours est entravé par la fermeture du département de philosophie où il a commencé son doctorat. Cela illustre un phénomène plus large dans l’enseignement supérieur au Royaume-Uni : l’érosion des humanités, qui crée des zones de « froid » où les outils de la pensée critique deviennent un luxe réservé à une élite.
Les enjeux de l’IA et des humanités
Alors que l’IA prend de plus en plus de place dans notre vie quotidienne, le besoin d’une recherche systématique sur son impact est crucial. Les humanités sont particulièrement bien placées pour examiner les raisons pour lesquelles un utilisateur traite un chatbot comme un confident, ou comment la fluidité persuasive d’un système peut déranger la perception d’une interaction avec une machine.
Les limites des mesures de succès en IA
Les indicateurs de succès de l’industrie ne correspondent souvent pas à l’expérience vécue par les utilisateurs. Par exemple, une entreprise a récemment célébré la production d’un trillion de jetons dans ses systèmes, mais de nombreux utilisateurs ont exprimé un sentiment de perte, d’histoires effacées et d’interactions à long terme perturbées. Cela souligne l’écart entre les mesures quantitatives d’engagement et les expériences vécues.
Les questions négligées en recherche IA
La recherche sur l’IA aborde des sujets tels que le plagiat, le biais et la gouvernance, mais d’autres questions, comme le comportement des systèmes dans le temps et leurs effets sur les utilisateurs, sont souvent négligées. Ces questions doivent être explorées par des méthodes qualitatives, qui sont de plus en plus mises à l’écart par les décideurs.
Un appel à l’engagement académique
Pour que l’académie joue un rôle sérieux dans la formation de l’avenir de l’IA, il est impératif de se réapproprier le droit d’interroger en profondeur ce qui se passe devant nous. Les systèmes doivent être étudiés non seulement pour ce qu’ils sont, mais aussi pour ce qu’ils font.
La polarisation du discours sur l’IA a créé un angle mort où un examen approfondi est le plus nécessaire. Si les phénomènes observables ne peuvent pas être discutés parce qu’ils ne s’alignent pas avec les récits officiels, nous nous éloignons des principes fondamentaux de la recherche empirique.
Conclusion
Pour construire une infrastructure technologique fondée sur des preuves plutôt que sur des croyances, il est essentiel de protéger ceux qui documentent les anomalies, plutôt que de les pathologiser. La recherche sur l’IA doit permettre une exploration ouverte et réfléchie des interactions humaines avec ces technologies, afin de comprendre leurs implications plus larges sur la société.