El Gran Equilibrio Algorítmico: Singapur y el Desafío de la IA
Singapur, listo para celebrar seis décadas de progreso notable, se encuentra ahora ante un nuevo precipicio. El país insular ha presentado su ambicioso Estrategia Nacional de IA 2.0 (NAIS 2.0), que actualiza la versión de 2019 con nuevos habilitadores, cursos de acción y un enfoque en la IA generativa. Singapur se posiciona así como un innovador y regulador en el ámbito de la IA.
Sin embargo, acechan sombras preocupantes: la privacidad de datos, el sesgo de IA y esos molestos «hallazgos erróneos», la tendencia de la IA a generar información incorrecta con la confianza de un político experimentado. Por lo tanto, una pregunta crucial pesa en el aire húmedo de sus bulliciosos distritos de negocios: ¿puede la ambición realmente superar a la bestia indomable de la IA?
El Problema de la Confianza en la IA Generativa
El factor de la confianza es primordial. Un estudio de Salesforce revela que el 50% de sus clientes no confían en lo que la IA hace con su información. Esta desconfianza no es infundada. Las empresas que implementan sistemas de IA sin la gobernanza adecuada corren el riesgo de exponer datos sensibles, incorporar sesgos o tomar decisiones que no pueden ser explicadas, todos potenciales campos minados en el altamente regulado entorno empresarial de Singapur.
Un reciente estudio de Boomi en colaboración con MIT Technology Review Insights muestra cifras alarmantes: el 45% de las empresas están frenando la IA debido a pesadillas de gobernanza, seguridad y privacidad. Un asombroso 98% preferiría esperar para asegurarse de que no están jugando con los datos de las personas.
La diferencia en el enfoque de Singapur con respecto a las regulaciones europeas es notable. En lugar de medidas punitivas inmediatas, el marco de Singapur establece límites mientras fomenta la innovación.
La Necesidad de Supervisión Humana
La supervisión humana es esencial para garantizar la responsabilidad en las decisiones que toma la IA. El marco de Singapur se interconecta con el nuevo Marco de Gobernanza de IA para la IA Generativa (MGF-Gen AI) lanzado a mediados del año pasado. Este marco destaca objetivos clave y operacionaliza la gobernanza de IA fomentando el desarrollo responsable de la IA.
Iniciativas como la Fundación AI Verify y el piloto de IMDA crean metodologías de prueba para aplicaciones de IA generativa, un paso crucial para las empresas que luchan con su implementación.
Desafíos Únicos de Singapur
Como un centro empresarial global, Singapur enfrenta desafíos únicos. Su marco debe tener en cuenta las complejidades transfronterizas, agravadas por la falta de directrices o marcos sólidos en la región, a diferencia de la UE. La implementación de un modelo en un país con un conjunto específico de problemas lingüísticos y culturales puede arrojar resultados muy diferentes en otro país. Esto crea un problema espinoso: el sesgo en Malasia podría no ser el mismo que en Tailandia, y el marco de Singapur debe ser lo suficientemente flexible para adaptarse a estas matices regionales.
El Caso de los Registros de Agentes
Para las empresas que buscan implementar la IA de manera responsable, la calidad de los datos es fundamental. Si múltiples equipos implementan múltiples soluciones de IA sin coordinación, el resultado es a menudo lo que se denomina expansión de IA, donde diferentes departamentos utilizan sistemas dispares con grados variados de gobernanza.
Los registros de agentes son sistemas de supervisión centralizados que rastrean las implementaciones de IA en una organización. «Un registro de agentes proporciona una vista sincronizada de todos los agentes en operación dentro de tu organización, permitiendo monitorear sus actividades y asegurar el cumplimiento de cualquier marco», explica un experto.
Estos registros se vuelven cruciales al considerar la IA Agente, sistemas que operan de manera autónoma y orquestan otros sistemas de IA. El fenómeno de «deslizar la tarjeta de crédito» se refiere a la situación en la que un departamento gasta en una IA sin la debida supervisión.
El Enigma de la Responsabilidad
El marco de Singapur enfatiza la responsabilidad, un principio que se vuelve cada vez más difícil de aplicar a medida que los sistemas de IA se vuelven más autónomos. La intervención humana es esencial para asegurar la responsabilidad en las decisiones que toma la IA. Sin embargo, el marco asume modelos de IA estáticos, mientras que la realidad es mucho más compleja. Los modelos evolucionan con el tiempo, creando un objetivo móvil para la gobernanza.
Para las industrias altamente reguladas en Singapur —banca, salud, transporte, etc.— la naturaleza «caja negra» de muchos modelos de IA presenta un desafío particularmente complicado. ¿Cómo se prueba la IA en mercados altamente regulados? Las empresas están intentando construir políticas de prueba con resultados de algoritmos específicos dentro de límites aprobados. No obstante, este enfoque depende del diseño adecuado de los modelos de prueba, lo que puede llevar a un escenario complejo de IA probando IA.
Un Paso Pragmatico Hacia Adelante
Para las empresas en Singapur y en toda la ASEAN que enfrentan la implementación de la gobernanza de la IA, se aconseja comenzar con victorias rápidas. «Si estás buscando adoptar la IA para tu negocio, encuentra dónde están esas victorias rápidas», aconsejan expertos.
Dos casos de uso destacan: mejorar chatbots con generación aumentada por recuperación (RAG) y la resumación de documentos. Sin embargo, independientemente de la aplicación, la gobernanza efectiva requiere estandarización.
A medida que la estrategia de IA de Singapur se despliega, ofrece un camino intermedio entre la innovación y la regulación. Pero para las empresas atrapadas entre sistemas heredados y las exigencias de la IA, el viaje sigue siendo desafiante.
Muchos negocios aún están atrapados con sistemas heredados y tecnología obsoleta. La tensión entre la ambición y la capacidad es la verdadera prueba de la estrategia de IA de Singapur: no solo crear marcos, sino ayudar a las empresas a transformarse desde la base.