Une étude mondiale révèle la tension entre les avantages et les risques de l’IA et met en lumière un « écart de gouvernance »
Une étude mondiale sur la confiance dans l’Intelligence Artificielle (IA) révèle que plus de la moitié des personnes dans le monde ne sont pas prêtes à faire confiance à l’IA, ce qui reflète une tension sous-jacente entre ses évidents bénéfices et les risques perçus.
Principales conclusions :
– L’ère intelligente est arrivée : 66 % des personnes utilisent l’IA régulièrement, et 83 % croient que l’utilisation de l’IA entraînera une large gamme de bénéfices.
– Pourtant, la confiance, qui est essentielle à l’acceptation de l’IA, demeure un défi critique. Seulement 46 % des personnes dans le monde sont prêtes à faire confiance aux systèmes d’IA, ce qui est corrélé à de faibles niveaux de culture IA : seulement deux personnes sur cinq (39 %) signalent avoir reçu une forme de formation à l’IA et seulement 40 % disent que leur lieu de travail a une politique ou des directives sur l’utilisation de l’IA générative.
– Il existe un mandat public pour la réglementation nationale et internationale de l’IA, avec seulement 43 % des répondants croyant que les réglementations actuelles sont adéquates.
– Les données suggèrent que juste en dessous de la moitié des organisations pourraient utiliser l’IA sans un soutien et une gouvernance adéquats.
Confiance, attitudes et utilisation de l’Intelligence Artificielle
Cette étude, la plus complète sur la confiance, l’utilisation et les attitudes du public envers l’IA, a été réalisée par des chercheurs en collaboration avec une grande institution. Elle a interrogé plus de 48 000 personnes à travers 47 pays entre novembre 2024 et janvier 2025.
Elle a révélé que bien que 66 % des personnes utilisent déjà l’IA de manière intentionnelle, moins de la moitié des répondants à l’échelle mondiale sont prêts à lui faire confiance (46 %). Comparée à une étude précédente menée avant la sortie de ChatGPT en 2022, elle montre que les gens sont devenus moins confiants et plus inquiets à mesure que l’adoption a augmenté.
Les individus et les organisations sont plus susceptibles de faire confiance aux systèmes d’IA lorsqu’ils comprennent comment l’IA fonctionne. Pourtant, l’étude révèle que seulement deux personnes sur cinq (39 %) rapportent avoir reçu une forme de formation à l’IA. En ligne avec ces faibles niveaux de formation à l’IA, presque la moitié (48 %) des répondants signalent une connaissance limitée de l’IA, indiquant qu’ils ne se sentent pas en mesure de comprendre l’IA ni quand ni comment elle est utilisée.
« La confiance du public dans les technologies de l’IA et leur utilisation sûre et sécurisée est essentielle à une acceptation durable », a déclaré un expert dans le domaine.
L’IA au travail et dans l’éducation
L’ère de travail avec l’IA est là, avec trois employés sur cinq (58 %) utilisant intentionnellement l’IA, et un tiers (31 %) l’utilisant chaque semaine ou chaque jour.
Cette utilisation élevée entraîne une gamme de bénéfices, la plupart des employés signalant une augmentation de l’efficacité, un meilleur accès à l’information et de l’innovation. Près de la moitié des personnes interrogées rapportent que l’IA a augmenté l’activité génératrice de revenus.
Cependant, seulement 60 % des organisations offrent une formation à l’IA responsable et seulement 34 % rapportent avoir une politique organisationnelle ou des directives sur l’utilisation des outils d’IA générative.
Il existe des risques complexes pour les organisations, un écart de gouvernance émergeant. L’étude révèle qu’une presque moitié des employés admettent utiliser l’IA d’une manière qui enfreint les politiques de l’entreprise, y compris le téléchargement d’informations sensibles dans des outils d’IA publics gratuits comme ChatGPT.
« L’utilisation imprudente pourrait être due à un retard dans la gouvernance de l’IA responsable. Dans les économies avancées, juste plus de la moitié des employés (55 %) rapportent que leur organisation dispose de mécanismes pour soutenir l’adoption de l’IA et son utilisation responsable », a déclaré un responsable.
L’IA dans la société
73 % des personnes déclarent avoir personnellement expérimenté ou observé des bénéfices de l’IA, y compris une réduction du temps passé sur des tâches banales, une personnalisation améliorée, une réduction des coûts et une meilleure accessibilité.
Cependant, quatre personnes sur cinq sont également préoccupées par les risques, et deux sur cinq rapportent avoir subi des impacts négatifs de l’IA. Ces impacts vont d’une perte d’interaction humaine et des risques de cybersécurité à la prolifération de la désinformation et de la désinformation, des résultats inexacts et un décrochage des compétences.
70 % croient qu’une réglementation de l’IA est nécessaire, mais seulement 43 % estiment que les lois et réglementations existantes sont adéquates.
Il existe une demande publique claire pour une loi et une réglementation internationales et pour que l’industrie s’associe aux gouvernements afin de réduire ces risques. 87 % des répondants souhaitent des lois plus strictes pour lutter contre la désinformation générée par l’IA et s’attendent à ce que les entreprises de médias et de réseaux sociaux mettent en œuvre des processus de vérification des faits plus rigoureux.
En conclusion, bien que l’IA fasse partie du paysage commercial depuis des années, la montée rapide et l’accès public généralisé à des systèmes plus avancés, notamment l’IA générative, ont mis en lumière les promesses et les risques associés à cette technologie. Les organisations doivent adopter une approche stratégique et mesurée, évaluant soigneusement si l’investissement dans l’IA et l’automatisation apportera des bénéfices commerciaux tout en équilibrant l’innovation avec les besoins opérationnels, la conformité réglementaire et les objectifs commerciaux à long terme.