Inversores activistas y la gobernanza en la era de la IA

Cómo los inversores activistas podrían convertir el uso de IA en una prueba de gobernanza

Los inversores activistas podrían comenzar a examinar de cerca cómo las juntas utilizan la inteligencia artificial (IA) de la misma manera que lo hacen con la gobernanza ambiental, social y de gobernanza (ESG) y la ciberseguridad. La cuestión no es la eficiencia, sino la efectividad fiduciaria.

Transparencia y uso de herramientas de IA

Las demandas de transparencia en torno a la IA se centrarán en si los directores están utilizando plenamente las herramientas disponibles para cumplir con sus deberes. Con las herramientas de IA, es mucho más fácil recopilar datos, establecer comparaciones, realizar investigaciones y analizar escenarios. La atención se centrará en si los directores están utilizando la IA de manera efectiva para llevar a cabo sus responsabilidades.

La supervisión de la ciberseguridad es un ejemplo temprano, donde se espera que las juntas comprendan cómo su empresa se compara con sus pares, cómo responder a incidentes y cuándo se requiere divulgación. Esta expectativa podría eventualmente llegar a los tribunales, donde la falta de uso de IA podría considerarse una violación del deber fiduciario.

Fluidez en IA y su importancia

Un aspecto central de este debate es la fluidez en IA. Las juntas serán cada vez más evaluadas sobre su comprensión de cómo la IA afecta el negocio, desde las cadenas de suministro y productos hasta oportunidades de mercado y estrategias. Para participar en estas conversaciones, las juntas necesitan un nivel básico de fluidez en IA.

Las juntas deben tratar la educación en IA de la misma manera que abordan otros temas fundamentales de gobernanza. Al igual que reciben educación sobre el comercio interno y las tendencias de compensación, la IA debería formar parte de la educación básica de la junta.

Riesgos de gobernanza y confidencialidad

Muchos directores ya están utilizando herramientas de IA sin orientación formal, lo que crea riesgos de gobernanza y confidencialidad. Aproximadamente el 66% de los directores están utilizando herramientas de IA de código abierto para resumir y extraer información de materiales de la junta, mientras que solo alrededor del 20% tiene políticas o pautas de uso de IA. Esta brecha expone a las empresas a riesgos relacionados con la confidencialidad y el privilegio abogado-cliente.

El uso de herramientas de IA para grabar y transcribir reuniones de la junta también plantea preocupaciones similares. Los riesgos más significativos son la confidencialidad y el descubrimiento legal, incluidos problemas sobre cuánto tiempo se guardan las transcripciones, quién puede acceder a ellas y cómo se almacenan.

Implicaciones de no usar IA

Fallar en el uso de IA podría considerarse una violación del deber fiduciario. Esto se enmarca en la calidad de las decisiones, no en la velocidad. Se espera que las juntas utilicen datos de referencia y divulguen sus procesos, especialmente en áreas como la ciberseguridad. Si no comprenden cómo su empresa se compara con los pares o no tienen información confiable cuando las herramientas de IA están disponibles, ¿están cumpliendo con su deber de cuidado?

Documentación y desarrollo continuo

Las juntas también deben documentar cuidadosamente la supervisión de la IA, asegurando que esté visible en los materiales de la junta, informes y actas. La educación sobre IA debe incorporarse explícitamente al desarrollo continuo de la junta.

El juicio humano sigue siendo esencial. Para decisiones de gobernanza de alto riesgo, se recomienda mantener la supervisión humana dentro del proceso, y el contenido generado por IA debe ser claramente etiquetado. La transparencia en el uso de IA debe normalizarse en lugar de ocultarse.

Conclusión

Las juntas que se destacarán serán aquellas que vayan más allá de la conciencia hacia la alfabetización en IA. Estas juntas consideran la IA en su estrategia, talento y operaciones, y la dirección gerencial informa sobre el progreso en cada reunión trimestral. A medida que la IA se integre más en la gobernanza, el papel del abogado general también cambiará, convirtiéndose en más estratégico y ligado a la gestión de riesgos empresariales.

La cultura puede ser uno de los mayores obstáculos para la adopción de IA. En organizaciones sin tolerancia para la experimentación, el uso de IA a menudo se desanima. A medida que las juntas, inversores y reguladores recalibran sus expectativas, la pregunta podría ya no ser si los directores pueden usar IA, sino si pueden justificar no usarla.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...