Les coupes dans les humanités face à l’essor de l’IA

A shattered marble bust of Socrates holding a circuit board

Coupures dans les humanités : une vulnérabilité face à l’IA

Un étudiant en doctorat d’une université britannique étudie la confiance des utilisateurs envers l’intelligence artificielle (IA) et leur expérience avec des modèles de langage tels que ChatGPT. Cependant, son parcours est entravé par la fermeture du département de philosophie où il a commencé son doctorat. Cela illustre un phénomène plus large dans l’enseignement supérieur au Royaume-Uni : l’érosion des humanités, qui crée des zones de « froid » où les outils de la pensée critique deviennent un luxe réservé à une élite.

Les enjeux de l’IA et des humanités

Alors que l’IA prend de plus en plus de place dans notre vie quotidienne, le besoin d’une recherche systématique sur son impact est crucial. Les humanités sont particulièrement bien placées pour examiner les raisons pour lesquelles un utilisateur traite un chatbot comme un confident, ou comment la fluidité persuasive d’un système peut déranger la perception d’une interaction avec une machine.

Les limites des mesures de succès en IA

Les indicateurs de succès de l’industrie ne correspondent souvent pas à l’expérience vécue par les utilisateurs. Par exemple, une entreprise a récemment célébré la production d’un trillion de jetons dans ses systèmes, mais de nombreux utilisateurs ont exprimé un sentiment de perte, d’histoires effacées et d’interactions à long terme perturbées. Cela souligne l’écart entre les mesures quantitatives d’engagement et les expériences vécues.

Les questions négligées en recherche IA

La recherche sur l’IA aborde des sujets tels que le plagiat, le biais et la gouvernance, mais d’autres questions, comme le comportement des systèmes dans le temps et leurs effets sur les utilisateurs, sont souvent négligées. Ces questions doivent être explorées par des méthodes qualitatives, qui sont de plus en plus mises à l’écart par les décideurs.

Un appel à l’engagement académique

Pour que l’académie joue un rôle sérieux dans la formation de l’avenir de l’IA, il est impératif de se réapproprier le droit d’interroger en profondeur ce qui se passe devant nous. Les systèmes doivent être étudiés non seulement pour ce qu’ils sont, mais aussi pour ce qu’ils font.

La polarisation du discours sur l’IA a créé un angle mort où un examen approfondi est le plus nécessaire. Si les phénomènes observables ne peuvent pas être discutés parce qu’ils ne s’alignent pas avec les récits officiels, nous nous éloignons des principes fondamentaux de la recherche empirique.

Conclusion

Pour construire une infrastructure technologique fondée sur des preuves plutôt que sur des croyances, il est essentiel de protéger ceux qui documentent les anomalies, plutôt que de les pathologiser. La recherche sur l’IA doit permettre une exploration ouverte et réfléchie des interactions humaines avec ces technologies, afin de comprendre leurs implications plus larges sur la société.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...