La montée de la réaction contre l’IA

La transformation économique liée à l’intelligence artificielle (IA) a déjà commencé. En mai, IBM a annoncé avoir licencié des centaines d’employés, remplacés par des chatbots. Au cours de l’été, Salesforce a également réduit ses effectifs en raison de l’IA ; UPS, JPMorgan Chase et Wendy’s ont également diminué leurs effectifs alors qu’ils automatisent davantage de fonctions. Les jeunes diplômés ont plus de mal à trouver des emplois d’entrée que jamais depuis près d’une décennie. Et ces tendances ne sont que le début.

Il est probable que l’intelligence artificielle crée de nouvelles opportunités d’emploi tout en perturbant les emplois existants. Les économistes ne s’accordent pas sur l’effet net, qu’il s’agisse de pertes d’emplois, de gains d’emplois ou simplement de restructuration. Cependant, quelle que soit la conséquence à long terme, l’IA deviendra bientôt un sujet politique majeur. Si des perturbations significatives se produisent, les responsables seront confrontés à des travailleurs furieux d’avoir perdu leur emploi au profit des machines. Les électeurs exprimeront leur frustration dans les urnes.

Préférences politiques des travailleurs

Pour élaborer une stratégie efficace face aux perturbations massives causées par l’IA, les décideurs politiques doivent comprendre comment les travailleurs perçoivent eux-mêmes la menace technologique. En novembre 2023, une enquête menée auprès de 6 000 Américains et Canadiens a révélé que les craintes relatives aux licenciements induits par l’IA étaient classées au-dessus de toutes les autres préoccupations technologiques.

En ce qui concerne les préférences politiques, il y a des raisons d’être à la fois optimiste et pessimiste. D’un côté positif, la plupart des répondants préféraient des mesures telles que des programmes de reconversion et des filets de sécurité élargis, des solutions technocratiques que les économistes estiment efficaces. En revanche, beaucoup soutenaient également de nouvelles restrictions commerciales et des barrières à l’immigration, des stratégies qui pourraient aggraver le problème et que les gouvernements pourraient être tentés d’adopter pour des raisons politiques.

Le risque des politiques protectionnistes

Le plus grand risque pourrait être que les gouvernements adoptent des politiques qui échouent. De nombreux politiciens, en particulier ceux de la droite populiste, pourraient répondre aux licenciements liés à l’IA en essayant de restreindre l’immigration et le commerce. Cependant, cette logique à somme nulle ne tient pas. Presque toutes les recherches montrent que la restriction de l’immigration et du commerce n’arrêtera pas les entreprises d’adopter l’IA ; en fait, cela pourrait accélérer les licenciements.

Les analystes peuvent essayer d’expliquer ces conséquences probables aux électeurs, mais le protectionnisme a souvent du soutien dans les sondages. En moyenne, le soutien aux restrictions sur l’immigration était de 3,4 sur 5, tandis que les restrictions commerciales étaient à 3,2. Parmi les Républicains, le soutien aux restrictions sur l’immigration était encore plus marqué, atteignant 4,0.

Répondre aux défis de l’IA

Malgré ces défis, la voie à suivre, comme le montrent les résultats de notre enquête, est également celle que les gens souhaitent le plus. Les décideurs pourraient adopter des lois établissant et finançant des programmes de reconversion qui enseignent aux travailleurs à collaborer avec les systèmes d’IA, à développer des compétences dans des secteurs moins susceptibles à l’automatisation, ou à se réorienter vers de nouveaux rôles créés par l’IA.

Ces politiques aideraient non seulement des millions de travailleurs, mais elles pourraient également restaurer la confiance dans le gouvernement. En reconnaissant les travailleurs ayant perdu leur emploi à cause de l’IA et en leur offrant de l’aide, les responsables montreraient aux électeurs que l’État peut répondre à leurs besoins. Cependant, le temps presse. L’adoption de l’IA s’accélère, et ses effets néfastes sur l’emploi ne sont plus un problème spéculatif, mais une réalité déjà répandue.

Articles

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...

Politique nationale de l’IA : vers un marché de 2,7 milliards de dollars au Pakistan

Le Pakistan a introduit une politique nationale ambitieuse en matière d'IA visant à créer un marché domestique de 2,7 milliards de dollars en cinq ans. Cette politique repose sur six piliers...

Gouvernance éthique de l’IA : un guide pratique pour les entreprises

Ce guide pratique souligne l'importance de la gouvernance éthique de l'IA pour les entreprises qui souhaitent intégrer l'IA de manière responsable. Il fournit des étapes concrètes pour établir un...

Stratégies IA pour transformer l’enseignement supérieur

L'intelligence artificielle transforme l'apprentissage, l'enseignement et les opérations dans l'enseignement supérieur en offrant des outils personnalisés pour le succès des étudiants et en renforçant...

Gouvernance de l’IA : Vers des normes éthiques en Afrique

L'intelligence artificielle (IA) façonne progressivement les services financiers, l'agriculture, l'éducation et même la gouvernance en Afrique. Pour réussir, les politiques organisationnelles doivent...

L’impact imminent de l’IA sur l’emploi

La transformation économique liée à l'IA a commencé, entraînant des licenciements massifs dans des entreprises comme IBM et Salesforce. Les résultats d'une enquête révèlent que les employés craignent...

Éthique du travail numérique : Qui est responsable de l’IA au sein de la main-d’œuvre ?

Le travail numérique devient de plus en plus courant sur le lieu de travail, mais peu de règles largement acceptées ont été mises en œuvre pour le régir. Les PDG doivent voir l'IA non seulement comme...

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d'audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise...

Conflit ou harmonie entre l’IA et la protection des données ?

L'IA est le mot à la mode dans le secteur juridique, et la loi sur l'IA de l'UE est un sujet d'intérêt majeur pour de nombreux professionnels du droit. Cet article examine les interactions...