Marco Regulatorio de IA en Singapur: La Prioridad Humana

Agentic AI obtiene un marco de reglas: Singapur insiste en que los humanos mantengan el control

A medida que las empresas de inteligencia artificial (IA) continúan presentando apasionadas propuestas sobre los beneficios de los agentes de IA que pueden automatizar ciertos flujos de trabajo en un entorno empresarial, el gobierno de Singapur ha lanzado un nuevo marco diseñado para salvaguardar contra los riesgos que plantea el despliegue de la IA agentic y para garantizar el desarrollo responsable de la tecnología.

La Autoridad de Desarrollo de Medios e Infocomunicaciones de Singapur (IMDA) ha publicado su Modelo de Marco de Gobernanza de IA para la IA agentic, con un enfoque específico en los riesgos de esta tecnología y su impacto en los humanos en el lugar de trabajo.

Contexto del marco de gobernanza

El nuevo marco, publicado este mes, se basa en el Marco de Gobernanza de IA de Singapur de 2019, que en ese momento se centraba en principios de IA como la transparencia, la equidad y el enfoque en el ser humano. Ha habido conversaciones sobre los riesgos de la IA, particularmente la IA agentic y la marcha hacia la inteligencia artificial general (AGI).

Singapur es uno de los países que utiliza la IA en los servicios gubernamentales, habiendo desplegado exitosamente asistentes virtuales para su sector público. Estos asistentes han respondido a más de 15 millones de consultas desde 2014, resolviendo aproximadamente la mitad de las consultas que de otro modo habrían sido redirigidas a un humano en un centro de llamadas.

Importancia de la supervisión humana

El marco de la IA agentic de Singapur establece que la supervisión humana sigue siendo un elemento crucial y obligatorio. Aunque los agentes pueden actuar de manera autónoma, la responsabilidad humana sigue aplicándose. Una vez que se da luz verde para desplegar la IA agentic, una organización debe tomar medidas inmediatas para garantizar que los humanos sean responsables de manera significativa.

Esto incluye definir claramente la responsabilidad entre los diferentes actores dentro y fuera de la organización involucrados en el ciclo de vida del agente, así como medidas para asegurar que la intervención humana siga siendo efectiva con el tiempo, a pesar del sesgo de automatización.

Evaluación de los agentes de IA

Las empresas de IA han comenzado a desarrollar metodologías para evaluar los agentes. Estas evaluaciones incluyen pruebas basadas en código, evaluaciones basadas en modelos y parámetros de evaluación humana, que ayudan a definir el comportamiento y la efectividad de los agentes en diferentes contextos de trabajo.

Es fácil confundir a los agentes de IA como una forma singular de inteligencia artificial en un lugar de trabajo, pero esta es una tecnología multifacética. Existen agentes de codificación, agentes conversacionales, agentes de investigación y agentes de uso de software, cada uno diseñado para cumplir funciones específicas.

Riesgos y desafíos

El marco advierte que los sistemas de IA agentic presentan nuevos puntos de entrada para atacantes potenciales y también introducen riesgos internos debido a su capacidad para tomar decisiones sin supervisión humana. Por ello, es esencial establecer un sistema que incluya puntos de control o pasos que requieran aprobación humana, especialmente en flujos de trabajo sensibles.

Conclusión

Para las organizaciones que implementan IA agentic, las pautas de Singapur enfatizan la importancia de limitar el poder de los agentes y definir políticas que les permitan acceso solo a las herramientas y datos mínimos necesarios para realizar sus tareas. Esto asegura que los riesgos sean equilibrados y que se mantenga la responsabilidad y la trazabilidad en el uso de estos agentes en el entorno laboral.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...