Confiance et Risques : L’Équilibre Précaire de l’IA

A bridge

Une étude mondiale révèle les bénéfices et les risques de l’IA : un écart de gouvernance

Une étude mondiale sur la confiance dans l’intelligence artificielle (IA) met en lumière le fait que plus de la moitié des personnes dans le monde ne sont pas prêtes à faire confiance à l’IA, soulignant une tension sous-jacente entre ses évidents bénéfices et les risques perçus.

Résultats clés

La révolution intelligente est en marche : 66% des personnes utilisent régulièrement l’IA et 83% croient que son utilisation entraînera une large gamme de bénéfices. Cependant, la confiance, qui est essentielle pour l’acceptation de l’IA, demeure un défi critique. Seules 46% des personnes dans le monde sont prêtes à faire confiance aux systèmes d’IA, ce qui est corrélé à de faibles niveaux de littératie en IA : seulement 39% rapportent avoir reçu une formation en IA et 40% affirment que leur lieu de travail a une politique ou des directives sur l’utilisation de l’IA générative.

Les données suggèrent qu’un peu moins de la moitié des organisations pourraient utiliser l’IA sans un soutien et une gouvernance adéquats.

Cette étude, intitulée « Confiance, attitudes et utilisation de l’intelligence artificielle : une étude mondiale 2025 », est la plus complète sur la confiance du public, l’utilisation et les attitudes envers l’IA. Elle a été menée par des chercheurs d’une institution académique de renom en collaboration avec une entreprise de conseil, et a sondé plus de 48 000 personnes dans 47 pays entre novembre 2024 et janvier 2025.

Bien que 66% des personnes utilisent déjà intentionnellement l’IA de manière régulière, moins de la moitié des répondants mondiaux sont prêts à lui faire confiance (46%). Comparée à une étude précédente réalisée avant le lancement de ChatGPT en 2022, cette enquête révèle que les gens sont devenus moins confiants et plus inquiets à mesure que l’adoption de l’IA a augmenté.

Compréhension et formation en IA

Les individus et les organisations sont plus susceptibles de faire confiance aux systèmes d’IA lorsqu’ils comprennent comment l’IA fonctionne. Pourtant, l’étude révèle que seulement 39% des répondants rapportent avoir reçu une formation en IA. En parallèle, presque la moitié (48%) des personnes déclarent avoir des connaissances limitées sur l’IA, indiquant qu’elles ne se sentent pas à l’aise avec son fonctionnement ni avec son utilisation.

« La confiance du public dans les technologies d’IA et leur utilisation sécurisée est essentielle à l’acceptation et à l’adoption durables », déclare un expert du domaine.

IA au travail et dans l’éducation

L’ère du travail avec l’IA est arrivée : 58% des employés utilisent intentionnellement l’IA, et un tiers (31%) l’utilise hebdomadairement ou quotidiennement. Cette utilisation élevée génère une gamme de bénéfices, la plupart des employés rapportant une augmentation de l’efficacité, un meilleur accès à l’information et une innovation accrue. Près de la moitié des personnes interrogées affirment que l’IA a augmenté l’activité génératrice de revenus.

Cependant, seules 60% des organisations offrent une formation responsable sur l’IA, et seulement 34% rapportent avoir une politique ou des directives organisationnelles sur l’utilisation des outils d’IA générative.

Un responsable d’une entreprise de conseil souligne que l’utilisation de l’IA au travail crée des risques complexes pour les organisations, et un « écart de gouvernance » est en train d’émerger. L’étude révèle que presque la moitié des employés admettent utiliser l’IA de manière contraire aux politiques de l’entreprise, y compris le téléchargement d’informations sensibles dans des outils d’IA publics gratuits comme ChatGPT.

« Une utilisation imprudente pourrait être due à un retard dans la gouvernance de l’IA responsable », ajoute-t-il, notant que dans les économies avancées, juste un peu plus de la moitié des employés (55%) rapportent que leur organisation dispose de mécanismes pour soutenir l’adoption de l’IA et son utilisation responsable.

IA dans la société

73% des personnes rapportent avoir personnellement expérimenté ou observé des bénéfices de l’IA, incluant une réduction du temps consacré à des tâches banales, une personnalisation améliorée, une réduction des coûts et une meilleure accessibilité. Cependant, quatre personnes sur cinq s’inquiètent également des risques, et deux d’entre elles sur cinq signalent avoir subi des impacts négatifs de l’IA, allant de la perte d’interaction humaine aux risques de cybersécurité, en passant par la prolifération de la désinformation et des résultats inexactes.

70% des répondants estiment qu’une réglementation de l’IA est nécessaire, mais seulement 43% croient que les lois et réglementations existantes sont adéquates.

Il existe une demande claire du public pour une législation et une réglementation internationales, ainsi qu’un partenariat entre l’industrie et les gouvernements pour atténuer ces risques. 87% des personnes interrogées souhaitent des lois plus strictes pour lutter contre la désinformation générée par l’IA et s’attendent à ce que les entreprises médiatiques et de réseaux sociaux mettent en œuvre des processus de vérification des faits plus robustes.

Dans les Caraïbes, nous constatons l’émergence de l’IA dans de nombreuses industries et dans la vie quotidienne. Les gouvernements régionaux s’efforcent de développer des politiques pour protéger la vie privée des données, atténuer les risques perçus de l’IA, tout en explorant les vastes opportunités que cette technologie offre pour le capital humain et le développement économique.

Un responsable d’une entreprise de conseil conclut que l’IA est sans doute la plus grande innovation technologique de notre génération. Étant donné son avancement rapide, il est impératif que les systèmes d’IA soient établis sur une base de bonne gouvernance qui contribuera à renforcer la confiance. Les utilisateurs veulent des garanties concernant les systèmes d’IA avec lesquels ils interagissent. Par conséquent, le potentiel complet de l’IA ne peut être réalisé que si le public a confiance dans les systèmes qui prennent des décisions ou les assistent.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...