Cómo los inversores activistas podrían convertir el uso de IA en una prueba de gobernanza
Los inversores activistas podrían comenzar a examinar de cerca cómo las juntas utilizan la inteligencia artificial (IA) de la misma manera que lo hacen con la gobernanza ambiental, social y de gobernanza (ESG) y la ciberseguridad. La cuestión no es la eficiencia, sino la efectividad fiduciaria.
Transparencia y uso de herramientas de IA
Las demandas de transparencia en torno a la IA se centrarán en si los directores están utilizando plenamente las herramientas disponibles para cumplir con sus deberes. Con las herramientas de IA, es mucho más fácil recopilar datos, establecer comparaciones, realizar investigaciones y analizar escenarios. La atención se centrará en si los directores están utilizando la IA de manera efectiva para llevar a cabo sus responsabilidades.
La supervisión de la ciberseguridad es un ejemplo temprano, donde se espera que las juntas comprendan cómo su empresa se compara con sus pares, cómo responder a incidentes y cuándo se requiere divulgación. Esta expectativa podría eventualmente llegar a los tribunales, donde la falta de uso de IA podría considerarse una violación del deber fiduciario.
Fluidez en IA y su importancia
Un aspecto central de este debate es la fluidez en IA. Las juntas serán cada vez más evaluadas sobre su comprensión de cómo la IA afecta el negocio, desde las cadenas de suministro y productos hasta oportunidades de mercado y estrategias. Para participar en estas conversaciones, las juntas necesitan un nivel básico de fluidez en IA.
Las juntas deben tratar la educación en IA de la misma manera que abordan otros temas fundamentales de gobernanza. Al igual que reciben educación sobre el comercio interno y las tendencias de compensación, la IA debería formar parte de la educación básica de la junta.
Riesgos de gobernanza y confidencialidad
Muchos directores ya están utilizando herramientas de IA sin orientación formal, lo que crea riesgos de gobernanza y confidencialidad. Aproximadamente el 66% de los directores están utilizando herramientas de IA de código abierto para resumir y extraer información de materiales de la junta, mientras que solo alrededor del 20% tiene políticas o pautas de uso de IA. Esta brecha expone a las empresas a riesgos relacionados con la confidencialidad y el privilegio abogado-cliente.
El uso de herramientas de IA para grabar y transcribir reuniones de la junta también plantea preocupaciones similares. Los riesgos más significativos son la confidencialidad y el descubrimiento legal, incluidos problemas sobre cuánto tiempo se guardan las transcripciones, quién puede acceder a ellas y cómo se almacenan.
Implicaciones de no usar IA
Fallar en el uso de IA podría considerarse una violación del deber fiduciario. Esto se enmarca en la calidad de las decisiones, no en la velocidad. Se espera que las juntas utilicen datos de referencia y divulguen sus procesos, especialmente en áreas como la ciberseguridad. Si no comprenden cómo su empresa se compara con los pares o no tienen información confiable cuando las herramientas de IA están disponibles, ¿están cumpliendo con su deber de cuidado?
Documentación y desarrollo continuo
Las juntas también deben documentar cuidadosamente la supervisión de la IA, asegurando que esté visible en los materiales de la junta, informes y actas. La educación sobre IA debe incorporarse explícitamente al desarrollo continuo de la junta.
El juicio humano sigue siendo esencial. Para decisiones de gobernanza de alto riesgo, se recomienda mantener la supervisión humana dentro del proceso, y el contenido generado por IA debe ser claramente etiquetado. La transparencia en el uso de IA debe normalizarse en lugar de ocultarse.
Conclusión
Las juntas que se destacarán serán aquellas que vayan más allá de la conciencia hacia la alfabetización en IA. Estas juntas consideran la IA en su estrategia, talento y operaciones, y la dirección gerencial informa sobre el progreso en cada reunión trimestral. A medida que la IA se integre más en la gobernanza, el papel del abogado general también cambiará, convirtiéndose en más estratégico y ligado a la gestión de riesgos empresariales.
La cultura puede ser uno de los mayores obstáculos para la adopción de IA. En organizaciones sin tolerancia para la experimentación, el uso de IA a menudo se desanima. A medida que las juntas, inversores y reguladores recalibran sus expectativas, la pregunta podría ya no ser si los directores pueden usar IA, sino si pueden justificar no usarla.