Nuevos Riesgos de IA: Alucinaciones y Uso Criminal en Wall Street

Riesgos Nuevos de IA en Wall Street: Alucinaciones y Uso Criminal

Recientemente, importantes firmas de Wall Street han emitido advertencias sobre los nuevos riesgos asociados con el uso creciente de la inteligencia artificial (IA). Estas preocupaciones incluyen alucinaciones de software, problemas de moral laboral, y el uso de IA por cibercriminales, así como el impacto de las leyes cambiantes a nivel global.

Preocupaciones Emergentes

Las peligros recientemente señaladas en los informes anuales de los bancos abarcan modelos de IA defectuosos o poco fiables, competencia creciente y regulaciones nuevas que restringen el uso de IA. Por ejemplo, JPMorgan ha señalado que la IA podría causar desplazamiento laboral, lo que afectaría la moral y la retención del personal, además de aumentar la competencia por contratar empleados con las habilidades tecnológicas necesarias.

Las instituciones bancarias han reconocido los riesgos relacionados con la IA en sus informes anuales durante los últimos años, pero ahora surgen nuevas inquietudes a medida que el sector financiero adopta cada vez más la IA, ya sea a través de su propio software o de ofertas de terceros. Si los bancos no se mantienen actualizados con los últimos desarrollos en IA, corren el riesgo de perder clientes y negocios.

Mecanismos de Gobernanza

Ben Shorten, líder de Accenture Plc en finanzas, riesgos y cumplimiento para banca y mercados de capital en América del Norte, enfatiza la importancia de contar con mecanismos de gobernanza adecuados para garantizar que la IA se implemente de manera segura, justa y segura. “Esta tecnología no es simplemente un plug-and-play”, afirma.

Calidad de Datos

Los bancos también están en peligro de pilotar tecnologías que pueden estar construidas con conjuntos de datos financieros obsoletos, sesgados o inexactos. El informe anual de JPMorgan menciona los peligros de desarrollar y mantener modelos que tengan el más alto nivel de calidad de datos.

Integración de IA

Goldman Sachs ha incrementado su inversión en activos digitales, blockchain y IA, pero la competencia creciente plantea riesgos para integrar tecnologías de IA a tiempo, con el fin de mejorar la productividad y ofrecer mejores transacciones, productos y servicios.

Además, las instituciones financieras enfrentan el reto de mantener la privacidad de los datos y el cumplimiento normativo en un entorno que se vuelve “menos seguro y rápidamente cambiante”. En 2024, entró en vigor la Ley de Inteligencia Artificial de la UE, que establece nuevas reglas sobre el uso de sistemas de IA en la región.

Uso de IA por Cibercriminales

A medida que los bancos adoptan la IA, los cibercriminales también están haciendo lo mismo, volviéndose cada vez más sofisticados en su uso. Un reciente estudio global de Accenture sobre 600 ejecutivos de ciberseguridad en la banca revela que sus equipos luchan por mantenerse al día con los esfuerzos de adopción de IA de sus organizaciones. Entre los encuestados, el 80% cree que la IA generativa está empoderando a los criminales más rápido de lo que los bancos pueden responder.

El informe más reciente de Morgan Stanley destaca que la IA generativa, el trabajo remoto y la integración de tecnología de terceros podrían representar un riesgo para la privacidad de los datos. Las medidas necesarias para evitar problemas en un entorno de trabajo desde casa se vuelven cada vez más críticas.

En resumen, a medida que Wall Street navega por el complejo paisaje de la IA, la necesidad de implementar controles y estrategias sólidas se vuelve imperativa para protegerse de potenciales inexactitudes y alucinaciones que puedan surgir en el futuro.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...