Confiance croissante dans l’IA générative malgré des lacunes en matière de sécurité

A bridge.

La Confiance dans l’IA Générative Augmente Mondialement malgré les Lacunes en Matière de Sécurité

SAS, un leader mondial dans le domaine des données et de l’IA, a récemment publié une étude qui explore l’utilisation, l’impact et la fiabilité de l’IA. Le Rapport sur l’Impact des Données et de l’IA : L’Impératif de Confiance, commandé par SAS, révèle que les leaders IT et commerciaux affichent une plus grande confiance en l’IA générative par rapport à toute autre forme d’IA.

Cette recherche mondiale sur l’adoption de l’IA a également montré que seulement 40% des entreprises investissent pour rendre leurs systèmes d’IA dignes de confiance à travers la gouvernance, l’explicabilité et des garde-fous éthiques. Pourtant, les organisations qui privilégient une IA digne de confiance sont 60% plus susceptibles de doubler le retour sur investissement (ROI) de leurs projets d’IA. Paradoxalement, parmi celles qui investissent le moins dans des systèmes d’IA dignes de confiance, l’IA générative (par exemple, ChatGPT) est perçue comme 200% plus digne de confiance que l’IA traditionnelle (par exemple, l’apprentissage automatique), malgré le fait que cette dernière soit la forme d’IA la plus établie, fiable et explicable.

Les Technologies Émergentes Évoquent le Plus de Confiance

Globalement, l’étude a révélé que les déploiements d’IA les plus dignes de confiance étaient les technologies émergentes, telles que l’IA générative et l’IA agentique, par rapport aux formes d’IA plus établies. Près de 48% des répondants ont déclaré avoir une « confiance totale » en l’IA générative, tandis qu’un tiers (b) a exprimé la même confiance pour l’IA agentique (33%). En revanche, moins d’une personne sur cinq (18%) a indiqué avoir une confiance totale dans l’IA traditionnelle.

Bien qu’ils aient rapporté une confiance élevée dans l’IA générative et l’IA agentique, les répondants ont exprimé des préoccupations concernant la vie privée des données (62%), la transparence et l’explicabilité (57%), ainsi que l’utilisation éthique (56%).

Par ailleurs, l’IA quantique gagne rapidement en confiance, même si la technologie pour exécuter la plupart des cas d’utilisation n’est pas encore complètement réalisée. Près d’un tiers des décideurs mondiaux affirment être familiers avec l’IA quantique, et 26% rapportent avoir une confiance totale dans cette technologie, malgré le fait que les applications réelles soient encore à un stade précoce.

Des Garde-fous en IA Insuffisants Affaiblissent l’Impact de l’IA et le ROI

L’étude a montré une rapide augmentation de l’utilisation de l’IA – en particulier de l’IA générative – qui a rapidement éclipsé l’IA traditionnelle tant en visibilité qu’en application (81% contre 66%). Cela a suscité de nouveaux niveaux de risques et de préoccupations éthiques.

À travers toutes les régions, les chercheurs d’IDC ont identifié un décalage entre la confiance que les organisations accordent à l’IA et la confiance réelle que cette technologie mérite. Selon l’étude, bien que près de 78% des organisations affirment avoir totalement confiance en l’IA, seulement 40% ont investi pour rendre les systèmes manifestement dignes de confiance par le biais de gouvernance, explicabilité et garde-fous éthiques.

La recherche a également montré que peu de priorité est accordée à la mise en œuvre de mesures d’IA dignes de confiance lors de l’opérationnalisation des projets d’IA. Parmi les trois principales priorités organisationnelles des répondants, seulement 2% ont sélectionné le développement d’un cadre de gouvernance de l’IA, et moins de 10% ont rapporté avoir développé une politique d’IA responsable. Cependant, le fait de ne pas donner la priorité aux mesures d’IA dignes de confiance pourrait empêcher ces organisations de réaliser pleinement leurs investissements en IA à l’avenir.

Des Fondations de Données et une Gouvernance Faibles Retardent l’IA

À mesure que les systèmes d’IA deviennent plus autonomes et intégrés dans des processus critiques, les fondations de données deviennent également plus importantes. La qualité, la diversité et la gouvernance des données influencent directement les résultats de l’IA, rendant des stratégies de données intelligentes essentielles pour réaliser les bénéfices (ex : ROI, gains de productivité) et atténuer les risques.

L’étude a identifié trois principaux obstacles empêchant le succès des mises en œuvre de l’IA : une infrastructure de données faible, une gouvernance insuffisante et un manque de compétences en IA. Près de 49% des organisations citent des fondations de données qui ne sont pas centralisées ou des environnements de données cloud non optimisés comme une barrière majeure. Cette préoccupation principale est suivie par un manque de processus de gouvernance des données suffisants (44%) et une pénurie de spécialistes qualifiés au sein de leur organisation (41%).

Les répondants ont rapporté que le principal problème lié à la gestion des données utilisées dans les mises en œuvre de l’IA est la difficulté d’accès aux sources de données pertinentes (58%). D’autres préoccupations majeures incluent des problèmes de vie privée et de conformité des données (49%) et la qualité des données (46%).

“Pour le bien de la société, des entreprises et des employés – la confiance dans l’IA est impérative,” a déclaré Bryan Harris, Directeur Technique chez SAS. “Pour y parvenir, l’industrie de l’IA doit augmenter le taux de succès des mises en œuvre, les humains doivent examiner de manière critique les résultats de l’IA, et la direction doit habiliter la main-d’œuvre avec l’IA.”

Pour explorer plus en profondeur les résultats de l’enquête, consultez le tableau de bord interactif.

Enfin, notez que SAS Innovate 2026 – une expérience unique pour les dirigeants d’entreprise, les utilisateurs techniques et les partenaires SAS – aura lieu du 27 au 30 avril 2026 à Grapevine, Texas. Visitez le site SAS Innovate pour plus d’informations et pour marquer la date !

Articles

L’avenir de l’IA : enjeux, responsabilités et opportunités

L'IA n'est plus un sujet de niche, elle est devenue centrale dans la conception de produits et la stratégie commerciale. Les gouvernements avancent rapidement et les entreprises prêtent une attention...

Lancement de la première école canadienne d’intelligence artificielle éthique

Ontario Tech annonce le lancement de la première et seule École de l'intelligence artificielle éthique au Canada. Cette initiative révolutionnaire souligne l'engagement de l'université envers une...

Sécurité des adolescents face à l’IA : enjeux et défis

Les nouvelles mesures de sécurité mises en place par OpenAI et Meta visent à protéger les adolescents en introduisant des contrôles parentaux et des algorithmes de prédiction d'âge. Cependant, des...

Règlementation de l’IA en Europe : enjeux et perspectives mondiales

L'Acte sur l'IA de l'UE marque le début d'une nouvelle ère de réglementation de l'intelligence artificielle en Europe, en classifiant les systèmes d'IA en fonction de leur potentiel de risque. Les...

Expérimenter l’IA en toute sécurité dans les administrations publiques

En 2023, le California Department of Technology (CDT) a lancé un espace de test d'intelligence artificielle qui permet aux employés de l'État d'expérimenter en toute sécurité l'intégration de l'IA...

Confiance croissante dans l’IA générative malgré des lacunes en matière de sécurité

Une nouvelle recherche de SAS révèle que la confiance dans l'IA générative dépasse celle des autres formes d'IA, malgré un manque d'investissement dans des systèmes d'IA fiables. Les dirigeants...

Révolution numérique silencieuse du Kazakhstan : vers une transformation technologique avec l’IA et la crypto

Le Kazakhstan se transforme en un pays numérique grâce à l'introduction de l'intelligence artificielle et de la digitalisation comme piliers de sa stratégie nationale. Le président Tokayev a annoncé...

Nouvelle législation californienne pour une IA responsable et transparente

La Californie a récemment adopté la première loi complète sur la sécurité et la transparence de l'IA aux États-Unis, connue sous le nom de loi sur la transparence de l'IA de pointe (TFAIA). Cette...

Collaboration et compétition : l’avenir de la gouvernance de l’IA

Le projet Red Cell vise à remettre en question les hypothèses et les idées reçues afin d'encourager des approches alternatives face aux défis de la politique étrangère et de sécurité nationale des...