Nouveaux risques de l’IA : hallucinations et utilisation criminelle sur Wall Street

A warning sign

Les nouveaux risques de l’IA selon Wall Street

Des entreprises financières emblématiques telles que Goldman Sachs, Citigroup et JPMorgan Chase mettent en garde les investisseurs contre les nouveaux risques associés à l’utilisation croissante de l’intelligence artificielle. Ces préoccupations incluent les hallucinations logicielles, les problèmes de moral des employés, l’utilisation criminelle de l’IA et l’impact des lois en évolution à l’échelle mondiale.

Les dangers signalés

Dans leurs rapports annuels, les banques soulignent des dangers tels que des modèles d’IA défectueux ou peu fiables, une concurrence accrue et de nouvelles réglementations qui restreignent l’utilisation de l’IA. Par exemple, JPMorgan a noté que l’IA pourrait entraîner un déplacement de la main-d’œuvre, affectant ainsi le moral et la rétention du personnel, tout en augmentant la concurrence pour recruter des employés possédant les compétences technologiques nécessaires.

Bien que les banques aient commencé à reconnaître ces risques liés à l’IA dans leurs rapports annuels au cours des dernières années, de nouvelles préoccupations émergent à mesure que le secteur financier adopte de plus en plus l’IA, que ce soit via leurs propres logiciels ou des offres tierces. Les banques avertissent que si elles ne se tiennent pas à jour sur les derniers développements en matière d’IA, elles risquent de perdre des clients et des parts de marché.

Les défis de l’intégration de l’IA

Goldman Sachs a déclaré qu’en dépit d’une augmentation de ses investissements dans les actifs numériques, la blockchain et l’IA, la concurrence représente un risque pour l’intégration des technologies d’IA de manière suffisamment rapide pour améliorer la productivité, réduire les coûts et offrir de meilleurs services aux clients.

Les institutions financières doivent également faire face au défi de maintenir la confidentialité des données et de respecter la conformité réglementaire dans un environnement en constante évolution. En 2024, la Loi sur l’intelligence artificielle de l’UE est entrée en vigueur, établissant de nouvelles règles sur l’utilisation des systèmes d’IA dans la région, où de nombreuses banques américaines ont des opérations.

Utilisation croissante de l’IA et cybercriminalité

À mesure que les banques se tournent vers l’IA, les cybercriminels font de même, devenant de plus en plus sophistiqués dans leur utilisation de cette technologie. Selon une enquête récente d’Accenture menée auprès de 600 responsables de la cybersécurité dans le secteur bancaire, 80 % des répondants estiment que l’IA générative permet aux criminels d’agir plus rapidement que les banques ne peuvent répondre à ces menaces.

En conséquence, les banques doivent adopter une approche responsable de l’utilisation de l’IA, en mettant en place des mécanismes de gouvernance appropriés pour garantir que l’IA soit déployée de manière sûre, équitable et sécurisée. La nécessité de protéger les institutions contre les inexactitudes et les hallucinations générées par l’IA n’a jamais été aussi cruciale.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...