El Ministerio de Algoritmos: Cuando los Científicos de Datos Impulsan la Toma de Decisiones
Recientemente, en frente de una audiencia cautiva en Singapur, dos hombres tuvieron una conversación que podría redefinir el pensamiento mundial sobre la regulación de la IA. Uno representa el lado del vendedor: Thomas Roehm, vicepresidente de marketing corporativo de SAS, armado con décadas de experiencia en análisis y relatos de implementaciones en Fortune 500. El otro reflejó el dilema del regulador: Frankie Phua, director gerente y jefe de gestión de riesgos del United Overseas Bank, quien lidia con una pregunta fundamental que mantiene despiertos a los líderes de datos: ¿Cómo gobernar la IA que evoluciona más rápido que las reglas destinadas a contenerla?
Su conversación, celebrada en SAS Innovate On Tour en Singapur, fue parte de una discusión más amplia sobre el innovador Proyecto MindForge. Este proyecto ofrece una rara visión de cómo se construye la regulación basada en datos, destacando la intersección compleja de la realidad empresarial y la necesidad regulatoria.
De los Principios a la Práctica: El Marco Regulatorio Basado en Datos
El Proyecto MindForge es impulsado por la Iniciativa Veritas, una iniciativa de la Autoridad Monetaria de Singapur (MAS) que examinó los riesgos y oportunidades de la tecnología de IA para el sector de servicios financieros. Sin embargo, sus orígenes se remontan a un enfoque metódico de Singapur hacia la gobernanza de la IA, que comenzó en 2019 como parte de la Estrategia Nacional de IA de Singapur.
“Debo decir que estoy muy orgulloso de ser singapurense trabajando en la industria bancaria de Singapur”, comentó Phua ante la audiencia. “¿Por qué lo digo? Porque durante el último período, que comenzó en 2019, la MAS ha involucrado a la industria bancaria para iniciar el viaje hacia la IA.”
La Autoridad Monetaria de Singapur comenzó con algo revolucionario: Phua supervisa diversas funciones de gestión de riesgos, incluyendo riesgo crediticio, riesgo de mercado, riesgo operativo, riesgo tecnológico y riesgo ESG/climático. Con más de 30 años de experiencia, es exactamente el tipo de practicante que los reguladores necesitan involucrar desde el principio.
El viaje comenzó con lo que Phua llamó los principios FEAT, que significan Justicia, Ética, Responsabilidad y Transparencia. “Básicamente, es muy importante que hablemos sobre la gobernanza de la IA para tener primero un principio de IA”, explicó Phua, “porque cuando miramos cualquier gobernanza, debe medirse contra ciertos principios.”
Sin embargo, los principios sin operacionalización son solo filosofía. El Proyecto Veritas intentó traducir esos cuatro principios en marcos accionables. “¿Cuáles son las tareas que hacer para la justicia? ¿Cuáles son las pruebas para la transparencia, para la sostenibilidad?” compartió Phua, planteando las preguntas que el proyecto examinó. “Por supuesto, se convirtió en un proceso más desafiante.”
Agilidad Regulatoria en la Era de GenAI
“En 2022, llegó ChatGPT. Comenzamos a hablar de GenAI”, recordó Phua. De repente, los marcos cuidadosamente construidos para la IA tradicional parecían anticuados. La industria lanzó el consorcio MindForge, que tiene como objetivo examinar los riesgos y oportunidades de GenAI en el sector de servicios financieros.
Este enfoque de riesgo-innovación es donde MindForge se distingue de las iniciativas regulatorias típicas. En lugar de que funcionarios gubernamentales escriban reglas, Singapur creó lo que Phua llama un enfoque de ecosistema: practicantes de bancos, aseguradoras y empresas tecnológicas colaborando para escribir el manual para sí mismos.
“La MAS está dejando que las instituciones financieras en Singapur escriban este manual para la industria, de modo que nos dejen intentar gobernar la IA de una manera práctica, en lugar de que ellos mismos lo impongan a los bancos.”
Este enfoque refleja una idea fundamental sobre la regulación moderna: en dominios tecnológicos que evolucionan rápidamente, los regulados a menudo saben más sobre las implicaciones prácticas que los reguladores.
El Paradigma de Gobernanza como Código
Roehm, responsable del marketing corporativo de SAS, añade contexto crucial sobre por qué esto importa más allá de las fronteras de Singapur. Durante su presentación, que estableció el escenario para la discusión, Roehm delineó la toma de decisiones de IA ya incorporada en diversas industrias: “Hoy, ayudamos a los bancos a predecir y prevenir fraudes mientras analizamos miles de millones de transacciones en todo el mundo”, explicó. “Estamos trabajando con hoteles, ayudándoles a gestionar una variedad de datos para prever la demanda, gestionar inventarios y fijar precios dinámicamente.”
Estas no son aplicaciones futuras, sino una realidad actual. El desafío regulatorio no es prepararse para la adopción de la IA; es gobernar la IA que ya está tomando decisiones significativas, y ese es un punto crítico.
Los ejemplos de Roehm ilustraron las apuestas: “En el sector público, SAS está trabajando junto a agencias locales y federales para ayudar a mejorar vidas… proporcionando soluciones que ayudan a identificar niños en riesgo para los trabajadores sociales, o soluciones de Ciudad Inteligente que ayudan a predecir y mitigar el riesgo de inundaciones.”
Cuando los sistemas de IA están tomando decisiones sobre el bienestar infantil y la prevención de inundaciones, el lujo de una regulación lenta y basada en el consenso se evapora.
El Desafío de Taxonomía: Definiendo la IA para el Cumplimiento Regulatorio
Uno de los momentos más reveladores en la conversación ocurrió cuando Phua abordó lo que considera el mayor desafío en la gobernanza de la IA: “¿Qué defines como IA? De hecho, en el Proyecto MindForge, tenemos muchos debates sobre qué es la IA.”
Esto no es una sutil diferenciación académica. “Porque estás tratando de gobernar la IA, necesitas saber qué es la IA”, enfatizó Phua. Para los modelos tradicionales, la identificación era sencilla: si construías un modelo, sabías que tenías IA para gobernar. Pero la IA moderna presenta escenarios más complejos.
Phua explicó cómo la IA incrustada en soluciones de proveedores puede introducir brechas de gobernanza. “Algunos proveedores, a mitad de camino, introducirán alguna IA —desde el punto de vista de gobernanza de la IA, debemos tener un proceso para poder identificar [esto] para que podamos gobernar.”
Este desafío definitorio destaca por qué el enfoque colaborativo de Singapur es importante. Los reguladores que escriben reglas de forma aislada podrían perderse estas complejidades prácticas que los practicantes encuentran diariamente.
Cuidado de Datos y Gobernanza Cognitiva
Tanto Roehm como Phua abordaron una preocupación que atormenta a muchos líderes de datos: si los sistemas de IA podrían erosionar las capacidades cognitivas humanas. “Incluso sin IA, muchos de nosotros no pensamos porque somos perezosos”, observó Phua con su característica franqueza. “Por eso la gente cae en estafas.”
Pero su experiencia con GenAI sugiere una dinámica diferente: “Recientemente estaba en la fila para comprar comida… Así que usé ChatGPT. En ese momento, estaba interesado en las stablecoins… Hice la primera pregunta y me dio la respuesta. No me gustó. Pregunté de nuevo. Desafié. Seguí preguntando. Al final, obtuve una muy buena respuesta.”
La clave es: “Con ChatGPT, con GenAI, si sabemos cómo pensar críticamente, si sabemos hacer las preguntas correctas todo el tiempo, en realidad se convierte en una herramienta muy poderosa.”
Esta perspectiva recontextualiza el desafío de gobernanza. En lugar de proteger a los humanos de la IA, la gobernanza efectiva podría centrarse en mejorar la colaboración humano-IA.
Arquitectura Regulatoria Federada: Escalando el Modelo de Singapur
La Fase 2 de MindForge está produciendo resultados tangibles. “Este manual que vamos a publicar pronto, porque creo que hemos terminado de redactarlo”, reveló Phua. El manual ofrecerá “orientaciones muy prácticas” abordando 44 riesgos de IA identificados con estrategias de mitigación específicas.
Más importante aún, el enfoque de Singapur ofrece una plantilla para otras jurisdicciones. En lugar de esperar una comprensión perfecta antes de actuar, están construyendo infraestructura de gobernanza de manera iterativa, con una profunda participación de los practicantes.
“No estamos validando el modelo GenAI en sí”, explicó Phua sobre su enfoque hacia la IA generativa. “Estamos aplicando el modelo GenAI… a los casos de uso que queremos utilizar. Así que cuando hablas de validación de IA, estamos hablando de validar el caso de uso.”
Esta distinción entre validar modelos versus validar aplicaciones representa un pensamiento crítico sobre la gobernanza en una era de modelos fundamentales.
A medida que los líderes de datos de todo el mundo enfrentan desafíos similares, el proyecto MindForge de Singapur ofrece más que prescripciones políticas. La conversación entre Roehm y Phua sugiere que estamos presenciando la aparición de un nuevo paradigma regulatorio, uno donde el ritmo del cambio tecnológico exige enfoques colaborativos e iterativos para la gobernanza. Demuestra que una gobernanza efectiva de la IA surge de la intersección de la visión regulatoria y la experiencia de los practicantes, donde los datos no solo informan las reglas, sino que ayudan a escribirlas.
Si otras jurisdicciones pueden adaptar el modelo de Singapur sigue siendo una pregunta abierta. Y probablemente será una cuestión clave que determinará si el enfoque de la nación insular puede establecer un marco más regional que interfase bien con otras agendas nacionales.