Confiance et Gouvernance : Le Paradoxe de l’IA aux États-Unis

A bridge

Le paradoxe de la confiance des Américains dans l’IA : l’adoption dépasse la gouvernance

Une récente étude démontre que l’adoption de l’IA dans le milieu de travail américain a devancé la capacité des entreprises à gouverner son utilisation. Bien que 70% des travailleurs américains soient impatients de tirer parti des avantages de l’IA, 75% d’entre eux restent vigilants face aux effets négatifs potentiels, et seulement 41% sont prêts à faire confiance à cette technologie.

Une utilisation incontrôlée de l’IA

Près de 44% des travailleurs américains admettent utiliser des outils d’IA sans autorisation appropriée. De plus, 46% d’entre eux reconnaissent avoir téléchargé des informations sensibles et de la propriété intellectuelle sur des plateformes publiques, ce qui représente une violation des politiques de sécurité de leur entreprise.

En outre, 58% des employés s’appuient sur l’IA pour accomplir leur travail sans évaluer les résultats, et 53% présentent le contenu généré par l’IA comme étant le leur. Cette dépendance entraîne des erreurs : 57%

La confiance est essentielle pour l’adoption de l’IA

Malgré le fait que 61% des travailleurs aient déjà constaté des impacts positifs de l’IA, 75% d’entre eux restent préoccupés par les conséquences négatives. La majorité des employés (b<80%) reconnaît que l’IA a amélioré l’efficacité opérationnelle, mais la confiance reste faible, avec 43% d’entre eux ayant peu de confiance dans la capacité des entreprises commerciales et gouvernementales à utiliser l’IA de manière responsable.

Les employés réclament davantage d’investissements dans la formation à l’IA et l’instauration de politiques de gouvernance claires pour réduire l’écart entre le potentiel de l’IA et son utilisation responsable.

La gouvernance de l’IA est à la traîne

Seulement 54% des consommateurs américains estiment que leurs organisations disposent de politiques pour une utilisation responsable de l’IA. Par ailleurs, 25% pensent qu’aucune politique n’existe. 55% des personnes interrogées croient que leurs organisations surveillent régulièrement les systèmes d’IA.

Les préoccupations concernant l’IA sont partagées par un grand nombre de consommateurs, seulement 29% d’entre eux considérant que la réglementation actuelle est suffisante pour garantir la sécurité de l’IA, tandis que 72% estiment qu’une réglementation supplémentaire est nécessaire.

Des appels à une réglementation accrue

Une majorité de consommateurs américains (b<81%) affirmerait qu’ils seraient plus enclins à faire confiance aux systèmes d’IA si des lois et des politiques étaient en place. De plus, 85% des consommateurs expriment un fort désir de lois pour lutter contre la désinformation générée par l’IA.

Les consommateurs reconnaissent la valeur de la réglementation et de la responsabilité dans le domaine de l’IA, montrant une volonté claire d’améliorer la confiance dans cette technologie.

Articles

Régulation des chatbots : un risque clair pour la sécurité publique

Le régulateur de la sécurité en ligne, Ofcom, est accusé de répondre de manière "embrouillée et confuse" aux dangers des chatbots IA, qui pourraient représenter un "risque clair" pour le public. Andy...

Construire des chatbots médicaux conformes à la législation européenne

L'Acte sur l'Intelligence Artificielle de l'UE impose des exigences strictes pour les systèmes à haut risque, tels que les chatbots médicaux, afin d'assurer la sécurité des patients. En intégrant ces...

Dialogue ciblé pour une sécurité de l’IA renforcée

Malgré la prolifération des événements de gouvernance de l'IA, un cadre complet n'a pas encore été établi. Il est crucial de réfléchir à la manière de faire progresser la conversation sur la sécurité...

Gouvernance et diversité : les clés de la cybersécurité à l’ère de l’IA

Les équipes de sécurité peuvent rester pertinentes grâce aux compétences en intelligence artificielle et en se concentrant sur les avantages de la diversité. Vasu Jakkal, vice-présidente de la...

Norme ISO 42001 : Vers une IA Responsable et Éthique

Bienvenue dans la première entrée de la série éducative de Kimova.AI sur l'ISO 42001, le premier standard international dédié à la gestion de l'intelligence artificielle (IA). Ce nouveau standard...

Clarification de la portée de la loi sur l’IA de l’UE pour l’IA générative

Les décideurs de l'UE envisagent de définir des mesures seuils des ressources informatiques pour aider les entreprises à déterminer si, et dans quelle mesure, les modèles d'IA qu'elles forment ou...

Réglementation de l’IA : un défi éthique en pleine évolution

Avec l'accélération de l'adoption de l'IA, les gouvernements et les régulateurs du monde entier s'efforcent de mettre en place des cadres éthiques et juridiques. Cet article examine l'évolution de la...

Normes Mondiales pour l’IA en Santé : Une Révolution Éthique et Durable

L'Organisation mondiale de la santé (OMS) a annoncé un effort historique pour créer le premier cadre de gouvernance mondial harmonisé pour l'intelligence artificielle (IA) dans le secteur de la santé...

Confiance et Gouvernance : Le Paradoxe de l’IA aux États-Unis

L'adoption de l'IA sur le lieu de travail aux États-Unis dépasse la capacité des entreprises à gouverner son utilisation. Près de la moitié des travailleurs américains utilisent des outils d'IA sans...