El riesgo de la desregulación de la IA en los mercados financieros

El movimiento hacia la desregulación de la IA podría poner en riesgo los mercados financieros

A medida que Canadá avanza hacia una regulación más estricta de la inteligencia artificial (IA) con la propuesta de la Ley de Inteligencia Artificial y Datos (AIDA), su vecino del sur, los Estados Unidos, parece estar tomando un enfoque opuesto.

AIDA, que forma parte del Proyecto de Ley C-27, busca establecer un marco regulatorio para mejorar la transparencia, la responsabilidad y la supervisión de la IA en Canadá. Sin embargo, algunos expertos han argumentado que no va lo suficientemente lejos.

Mientras tanto, el presidente de los Estados Unidos, Donald Trump, está impulsando la desregulación de la IA. En enero, Trump firmó una orden ejecutiva destinada a eliminar cualquier barrera regulatoria percibida para la “innovación estadounidense en IA”. Esta orden ejecutiva reemplazó la anterior de Joe Biden sobre la IA.

Notablemente, los Estados Unidos fueron uno de los dos países que no firmaron una declaración global en febrero para asegurar que la IA sea “abierta, inclusiva, transparente, ética, segura y confiable”.

La eliminación de salvaguardias de la IA deja a las instituciones financieras vulnerables. Esta vulnerabilidad puede aumentar la incertidumbre y, en el peor de los casos, aumentar el riesgo de colapso sistémico.

El poder de la IA en los mercados financieros

El potencial de la IA en los mercados financieros es innegable. Puede mejorar la eficiencia operativa, llevar a cabo evaluaciones de riesgo en tiempo real, generar mayores ingresos y prever cambios económicos predictivos.

Investigaciones han demostrado que los modelos de aprendizaje automático impulsados por IA no solo superan los enfoques convencionales en la identificación de fraudes financieros, sino que también pueden detectar anormalidades de manera rápida y efectiva. Esto significa que la IA puede detectar signos de mala gestión financiera antes de que se conviertan en un desastre.

Además, los modelos de IA como las redes neuronales artificiales y los árboles de clasificación y regresión pueden predecir el estrés financiero con una precisión notable. Por ejemplo, nuestras redes neuronales artificiales predijeron el estrés financiero entre las empresas cotizadas en la Bolsa de Valores de Toronto con una asombrosa precisión del 98%.

Sin embargo, aunque la IA puede simplificar procesos manuales y reducir riesgos financieros, también puede introducir vulnerabilidades que, si no se controlan, podrían amenazar la estabilidad económica.

Los riesgos de la desregulación

El impulso de Trump hacia la desregulación podría resultar en que Wall Street y otras importantes instituciones financieras obtengan un poder significativo sobre las herramientas de toma de decisiones impulsadas por IA sin la supervisión adecuada.

Cuando los modelos de IA impulsados por el lucro operan sin los límites éticos apropiados, las consecuencias podrían ser severas. Los algoritmos sin control, especialmente en la evaluación de crédito y el comercio, podrían empeorar la desigualdad económica y generar riesgos financieros sistemáticos que los marcos regulatorios tradicionales no pueden detectar.

Los algoritmos entrenados con datos sesgados o incompletos pueden reforzar prácticas de préstamo discriminatorias. Por ejemplo, los algoritmos de IA sesgados pueden negar préstamos a grupos marginados, ampliando las brechas de riqueza y desigualdad.

Los bots de comercio impulsados por IA, capaces de ejecutar transacciones rápidas, podrían desencadenar crashes repentinos en segundos, interrumpiendo los mercados financieros antes de que los reguladores tengan tiempo de responder. El crash del mercado de 2010 es un ejemplo de cómo los algoritmos de comercio de alta frecuencia reaccionaron agresivamente a las señales del mercado, causando una caída del Dow Jones de 998.5 puntos en cuestión de minutos.

Además, los modelos de riesgo impulsados por IA no regulados podrían pasar por alto señales de advertencia económicas, resultando en errores sustanciales en el control monetario y la política fiscal.

Un plan para la estabilidad financiera

Es crucial integrar métodos de aprendizaje automático dentro de sistemas regulatorios robustos para mejorar la supervisión financiera y la detección de fraudes. Se requieren marcos regulatorios duraderos y razonables para convertir la IA de un posible disruptor en una fuerza estabilizadora.

Al implementar políticas que prioricen la transparencia y la responsabilidad, los responsables de políticas pueden maximizar las ventajas de la IA mientras reducen los riesgos asociados. Un organismo de supervisión de IA regulado federalmente en los Estados Unidos podría servir como un árbitro, similar a lo que propone la Ley de Implementación de la Carta Digital de Canadá.

Las instituciones financieras deberían estar obligadas a abrir la “caja negra” de las alternativas impulsadas por IA al exigir transparencia a través de estándares de IA explicables, que buscan hacer que las salidas de los sistemas de IA sean más comprensibles y transparentes para los humanos.

Las capacidades predictivas del aprendizaje automático podrían ayudar a los reguladores a identificar crisis financieras en tiempo real utilizando señales de advertencia tempranas.

No obstante, esta visión no se limita a las fronteras nacionales. A nivel global, el Fondo Monetario Internacional y el Consejo de Estabilidad Financiera podrían establecer estándares éticos de IA para frenar la conducta financiera transfronteriza.

Prevención de crisis o catalizador?

¿Seguirá siendo la IA la clave para prever y detener la próxima crisis económica, o la falta de supervisión regulatoria provocará un desastre financiero? A medida que las instituciones financieras continúan adoptando modelos impulsados por IA, la ausencia de salvaguardias regulatorias sólidas plantea preocupaciones apremiantes.

Sin las salvaguardias adecuadas, la IA no es solo una herramienta para la predicción económica; podría convertirse en una fuerza impredecible capaz de acelerar la próxima crisis financiera.

Los riesgos son altos. Los responsables de políticas deben actuar rápidamente para regular el creciente impacto de la IA antes de que la desregulación abra el camino hacia un desastre económico. Sin una acción decisiva, la rápida adopción de la IA en las finanzas podría superar los esfuerzos regulatorios, dejando a las economías vulnerables a riesgos imprevistos y potencialmente preparando el escenario para otra crisis financiera global.

More Insights

Carrera Armamentista de IA y el Impacto de los Aranceles en la Innovación

Los aranceles pueden tener un impacto multifacético en el avance de la inteligencia artificial (IA) y la automatización, actuando como un posible obstáculo y, paradójicamente, un posible catalizador...

Plan de Acción de la Comisión Europea para la Soberanía en IA

La Comisión Europea ha lanzado su Plan de Acción para la IA, una estrategia integral destinada a establecer a Europa como líder global en inteligencia artificial. El plan se centra en aumentar la...

El Dilema del AI: Innovación y Regulación en Singapur

Singapur se prepara para celebrar seis décadas de progreso, mientras lanza su ambicioso Estrategia Nacional de IA 2.0, que se centra en la innovación y regulación de la inteligencia artificial. Sin...

IA Responsable en el Sector FinTech

Lexy Kassan discute los aspectos críticos de la inteligencia artificial responsable, centrándose en actualizaciones regulatorias como la Ley de IA de la UE y sus implicaciones para FinTech. Explica...

IA Centrada en el Humano: Hacia un Futuro Ético y Responsable

La inteligencia artificial centrada en el ser humano (HCAI) se refiere al desarrollo de sistemas de IA que priorizan los valores humanos y la colaboración entre humanos y máquinas. Este enfoque ético...

La Regulación de la IA en la UE: Un Cambio Decisivo

El Acta de Inteligencia Artificial de la UE establece un marco regulatorio uniforme para todos los estados miembros, buscando equilibrar la innovación con la seguridad de los ciudadanos. Se trata de...

Actualización de las Cláusulas Contractuales Modelos de IA de la UE

La Comunidad de Práctica de la UE sobre la Contratación Pública de IA ha publicado una versión actualizada de sus Cláusulas Contractuales Modelo de IA (MCC-AI) el 5 de marzo de 2025. Estas cláusulas...

Impacto de la Ley de IA de la UE en Sistemas de Reconocimiento Emocional en el Trabajo

La inteligencia artificial de reconocimiento emocional (Emotion AI) utiliza datos biométricos y otros conjuntos de datos para identificar y analizar emociones. Desde la entrada en vigor de la Ley de...