Tension entre les avantages et les risques de l’IA : un appel à la régulation

A broken chain

Une étude mondiale révèle la tension entre les avantages et les risques de l’IA et met en lumière un « écart de gouvernance »

Une étude mondiale sur la confiance dans l’Intelligence Artificielle (IA) révèle que plus de la moitié des personnes dans le monde ne sont pas prêtes à faire confiance à l’IA, ce qui reflète une tension sous-jacente entre ses évidents bénéfices et les risques perçus.

Principales conclusions :

– L’ère intelligente est arrivée : 66 % des personnes utilisent l’IA régulièrement, et 83 % croient que l’utilisation de l’IA entraînera une large gamme de bénéfices.

– Pourtant, la confiance, qui est essentielle à l’acceptation de l’IA, demeure un défi critique. Seulement 46 % des personnes dans le monde sont prêtes à faire confiance aux systèmes d’IA, ce qui est corrélé à de faibles niveaux de culture IA : seulement deux personnes sur cinq (39 %) signalent avoir reçu une forme de formation à l’IA et seulement 40 % disent que leur lieu de travail a une politique ou des directives sur l’utilisation de l’IA générative.

– Il existe un mandat public pour la réglementation nationale et internationale de l’IA, avec seulement 43 % des répondants croyant que les réglementations actuelles sont adéquates.

– Les données suggèrent que juste en dessous de la moitié des organisations pourraient utiliser l’IA sans un soutien et une gouvernance adéquats.

Confiance, attitudes et utilisation de l’Intelligence Artificielle

Cette étude, la plus complète sur la confiance, l’utilisation et les attitudes du public envers l’IA, a été réalisée par des chercheurs en collaboration avec une grande institution. Elle a interrogé plus de 48 000 personnes à travers 47 pays entre novembre 2024 et janvier 2025.

Elle a révélé que bien que 66 % des personnes utilisent déjà l’IA de manière intentionnelle, moins de la moitié des répondants à l’échelle mondiale sont prêts à lui faire confiance (46 %). Comparée à une étude précédente menée avant la sortie de ChatGPT en 2022, elle montre que les gens sont devenus moins confiants et plus inquiets à mesure que l’adoption a augmenté.

Les individus et les organisations sont plus susceptibles de faire confiance aux systèmes d’IA lorsqu’ils comprennent comment l’IA fonctionne. Pourtant, l’étude révèle que seulement deux personnes sur cinq (39 %) rapportent avoir reçu une forme de formation à l’IA. En ligne avec ces faibles niveaux de formation à l’IA, presque la moitié (48 %) des répondants signalent une connaissance limitée de l’IA, indiquant qu’ils ne se sentent pas en mesure de comprendre l’IA ni quand ni comment elle est utilisée.

« La confiance du public dans les technologies de l’IA et leur utilisation sûre et sécurisée est essentielle à une acceptation durable », a déclaré un expert dans le domaine.

L’IA au travail et dans l’éducation

L’ère de travail avec l’IA est là, avec trois employés sur cinq (58 %) utilisant intentionnellement l’IA, et un tiers (31 %) l’utilisant chaque semaine ou chaque jour.

Cette utilisation élevée entraîne une gamme de bénéfices, la plupart des employés signalant une augmentation de l’efficacité, un meilleur accès à l’information et de l’innovation. Près de la moitié des personnes interrogées rapportent que l’IA a augmenté l’activité génératrice de revenus.

Cependant, seulement 60 % des organisations offrent une formation à l’IA responsable et seulement 34 % rapportent avoir une politique organisationnelle ou des directives sur l’utilisation des outils d’IA générative.

Il existe des risques complexes pour les organisations, un écart de gouvernance émergeant. L’étude révèle qu’une presque moitié des employés admettent utiliser l’IA d’une manière qui enfreint les politiques de l’entreprise, y compris le téléchargement d’informations sensibles dans des outils d’IA publics gratuits comme ChatGPT.

« L’utilisation imprudente pourrait être due à un retard dans la gouvernance de l’IA responsable. Dans les économies avancées, juste plus de la moitié des employés (55 %) rapportent que leur organisation dispose de mécanismes pour soutenir l’adoption de l’IA et son utilisation responsable », a déclaré un responsable.

L’IA dans la société

73 % des personnes déclarent avoir personnellement expérimenté ou observé des bénéfices de l’IA, y compris une réduction du temps passé sur des tâches banales, une personnalisation améliorée, une réduction des coûts et une meilleure accessibilité.

Cependant, quatre personnes sur cinq sont également préoccupées par les risques, et deux sur cinq rapportent avoir subi des impacts négatifs de l’IA. Ces impacts vont d’une perte d’interaction humaine et des risques de cybersécurité à la prolifération de la désinformation et de la désinformation, des résultats inexacts et un décrochage des compétences.

70 % croient qu’une réglementation de l’IA est nécessaire, mais seulement 43 % estiment que les lois et réglementations existantes sont adéquates.

Il existe une demande publique claire pour une loi et une réglementation internationales et pour que l’industrie s’associe aux gouvernements afin de réduire ces risques. 87 % des répondants souhaitent des lois plus strictes pour lutter contre la désinformation générée par l’IA et s’attendent à ce que les entreprises de médias et de réseaux sociaux mettent en œuvre des processus de vérification des faits plus rigoureux.

En conclusion, bien que l’IA fasse partie du paysage commercial depuis des années, la montée rapide et l’accès public généralisé à des systèmes plus avancés, notamment l’IA générative, ont mis en lumière les promesses et les risques associés à cette technologie. Les organisations doivent adopter une approche stratégique et mesurée, évaluant soigneusement si l’investissement dans l’IA et l’automatisation apportera des bénéfices commerciaux tout en équilibrant l’innovation avec les besoins opérationnels, la conformité réglementaire et les objectifs commerciaux à long terme.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...