La Gobernanza de la IA Pasa de las Juntas Directivas a la Estrategia Empresarial
Las organizaciones están utilizando la IA a lo largo de su cadena de valor tanto para aplicaciones internas como para aquellas dirigidas al consumidor. Los casos de uso abarcan desde la contratación y la detección de fraudes hasta el soporte al cliente y la personalización.
Como resultado, la implementación de la IA ha pasado a formar parte de la agenda de las juntas directivas. Investigaciones muestran que las juntas con conocimientos en IA promediaron 10.9 puntos porcentuales por encima de sus pares de la industria en retorno sobre el capital, convirtiendo a la IA en un palanca estratégica para la eficiencia, la velocidad y la ventaja competitiva.
De la Ventaja Competitiva al Riesgo de Gobernanza
Sin embargo, la integración creciente de la IA en funciones organizativas centrales y auxiliares introduce riesgos estructurales. El control de proveedores es uno de los muchos ejemplos. Los datos empresariales pueden ser reutilizados o retenidos por herramientas de IA de terceros más allá de los propósitos acordados, socavando la confidencialidad.
Además, la dependencia de la IA de terceros amplifica la exposición regulatoria, ya que las empresas que implementan estas tecnologías probablemente seguirán siendo responsables a pesar de tener visibilidad limitada sobre el diseño del modelo, los datos de entrenamiento o las actualizaciones del sistema.
La implementación de la IA también plantea preocupaciones sobre la privacidad, ya que los datos personales fluyen a través de sistemas opacos. Esto constriñe el cumplimiento de las obligaciones de protección de datos. Por último, las alucinaciones, sesgos y fallos de precisión pueden generar resultados engañosos o discriminatorios, y la falta de transparencia en las pruebas y la remediación agrava estos desafíos.
Riesgos de la IA en la Práctica: Lecciones de Implementaciones Recientes
Los tribunales y reguladores están examinando cada vez más los fallos relacionados con la IA. Por ejemplo, se penalizó a una empresa después de que su algoritmo de clasificación priorizara ofertas de hoteles de anunciantes que pagaban comisiones más altas, incluso cuando existían opciones más económicas. El regulador de competencia de un país determinó que la empresa había engañado a los consumidores sobre los mejores precios disponibles.
Además, también han surgido riesgos del uso interno de la IA. Los empleados han ingresado información sensible de la organización en herramientas de IA generativa, lo que ha llevado a las empresas a recalibrar los controles sobre la confidencialidad de los datos y el uso permitido.
Las organizaciones están fortaleciendo sus defensas de gobernanza estableciendo comités de supervisión de IA, emitiendo políticas de uso interno y capacitando a la fuerza laboral. Los desarrollos regulatorios están acelerando aún más este cambio. A medida que avanza la implementación de una nueva legislación sobre IA, los inversores enfatizan que las juntas deben supervisar cómo se diseña, implementa y monitorea la IA como parte de sus funciones de gobernanza.
El Enfoque de la Gobernanza de la IA en India
India está trazando un enfoque distintivo y basado en evidencia para la gobernanza de la IA. En lugar de adoptar una legislación global sobre la IA, el enfoque se centra en operacionalizar principios comunes para el uso responsable de la IA en todos los sectores. Estos principios fueron articulados inicialmente por un comité en el sector financiero.
El Ministerio de Electrónica y Tecnología de la Información respaldó posteriormente estos principios en sus guías de gobernanza de la IA en India. Juntos, estos documentos enfatizan la necesidad de integrar principios de confianza, equidad, responsabilidad, transparencia y seguridad en el diseño para gestionar los riesgos de la IA.
Por ejemplo, se recomienda a las entidades reguladas adoptar políticas de IA aprobadas por la junta que abarquen gobernanza, ética, responsabilidad y apetito de riesgo. Asimismo, se propuso que los participantes del mercado designen a la alta dirección responsable de la supervisión de la IA a lo largo de su ciclo de vida, respaldada por marcos claros de responsabilidad.
Estos marcos no prescriben una lista de verificación única, pero señalan cómo la alta dirección debería estructurar la supervisión en torno a la adopción de la IA.
Tres Pasos Prácticos para las Juntas
Para implementar la IA de manera responsable mientras se mantiene la agilidad empresarial, las juntas pueden tomar tres pasos:
Primero, evaluar el uso de la IA y adoptar una política de gobernanza básica. La adopción responsable de la IA comienza con la visibilidad organizacional. Las juntas deberían encargar un mapeo a nivel organizacional sobre dónde se utiliza la IA, con qué propósito y su impacto potencial. Los casos de uso deberían clasificarse en implementaciones dirigidas al consumidor e internas. Esto permite priorizar riesgos y crear un inventario de IA que capture los casos de uso, entradas de datos, proveedores y niveles de riesgo.
En segundo lugar, tratar la transparencia de los proveedores y las salvaguardias contractuales como una prioridad de gobernanza. Siguiendo las deliberaciones políticas en India, las organizaciones que implementan la IA probablemente seguirán siendo responsables de los resultados generados por la IA, incluso cuando el modelo sea proporcionado por un tercero. Las juntas deberían asegurar claridad sobre lo que hace un sistema de IA, dónde puede fallar y cómo utiliza los datos.
Por último, institucionalizar la presentación de informes a nivel de junta, la supervisión continua y la respuesta a incidentes. India se ha centrado en un enfoque basado en evidencia para gestionar los riesgos de la IA, lo que ayudará a desarrollar marcos apropiados de evaluación y clasificación de riesgos. Las organizaciones deberían tratar el informe de incidentes relacionados con la IA y la supervisión continua como parte de su estrategia de gobernanza.
Las juntas deberían adoptar políticas internas que fomenten la detección temprana y el informe de buena fe de incidentes relacionados con la IA. Como mínimo, las juntas deberían exigir informes periódicos sobre los casos de uso de IA material, los riesgos clave, las dependencias de proveedores y la efectividad de los controles.
Conclusión
Con la creciente adopción de la IA, las juntas deberían comenzar a deliberar sobre cómo gobernar responsablemente la IA a gran escala. Las robustas discusiones políticas en India ofrecen a las organizaciones una visión valiosa para formular su enfoque interno de gobernanza. Los primeros en establecer marcos para promover la visibilidad, garantizar la responsabilidad y operacionalizar mecanismos de escalación estarán mejor posicionados para aprovechar los beneficios de la IA mientras gestionan eficazmente sus riesgos.