Kyndryl y la regulación de la IA: evitando errores costosos en el cumplimiento

Kyndryl quiere ayudar a las empresas a mantener a los agentes de IA en línea y evitar costosos errores de cumplimiento

Kyndryl ha anunciado una nueva función de «política como código» destinada a ayudar a las organizaciones a escalar la IA agente en entornos complejos y regulados.

Descripción de la función

La idea es convertir las reglas organizacionales de una empresa, los requisitos regulatorios y los controles operativos en políticas legibles por máquina que gobiernen dónde pueden y no pueden operar los agentes.

Las organizaciones típicamente implementan políticas como código a través de una combinación de lenguajes de políticas declarativas y motores de aplicación. En otras palabras, incorporan las regulaciones y reglas operativas apropiadas en un código que los agentes de IA pueden leer y deben obedecer. Si está en el código, el agente de IA debe ejecutarlo. Y si una instrucción no está en el código, el agente de IA no puede verla ni actuar sobre ella.

Contexto y necesidad

Este movimiento surge en medio de crecientes preocupaciones de cumplimiento regulatorio para las empresas que están aumentando la adopción de la IA agente. Según Kyndryl, más de tres de cada diez de sus clientes han expresado que los problemas de cumplimiento limitan seriamente su capacidad para escalar las inversiones tecnológicas recientes.

La nueva capacidad de política como código tiene como objetivo abordar esto definiendo límites operativos y diseñando las acciones de los agentes para que permanezcan explicables, revisables y alineadas con los requisitos comerciales y regulatorios definidos por el cliente.

Características y beneficios

Esta nueva función se integrará directamente en el marco de IA agente de Kyndryl, lanzado el verano pasado como un portafolio de agentes de IA especializados, autodirigidos y de autoaprendizaje.

Las características incluyen la ejecución determinista, donde los agentes solo ejecutan acciones que han sido permitidas y aplicadas con antelación. Se implementan barreras que bloquean acciones impredecibles o no autorizadas a lo largo del flujo de trabajo, eliminando el impacto operativo de las alucinaciones de los agentes. Cada acción y decisión del agente se registra y es explicable, apoyando el cumplimiento y la supervisión.

Es importante destacar que las decisiones están sujetas a supervisión humana, con los agentes ejecutando tareas alineadas con políticas establecidas y comprobables que se monitorean a través de un panel de control.

Implicaciones para industrias reguladas

La política como código debería ser particularmente valiosa en industrias altamente reguladas, como los servicios financieros, la atención médica y el gobierno. Ayuda a estas industrias a aprovechar plenamente los beneficios de la IA y la IA agente al reducir el riesgo de fallos de cumplimiento que dañan las reputaciones y conllevan fuertes sanciones financieras.

Al aplicar reglas programáticas a gran escala, la política como código ayuda a eliminar el error humano que puede llevar a otorgar permisos inapropiados a la IA, interpretar reglas y regulaciones de manera inconsistente y no documentar excepciones a las operaciones estándar.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...