Gobernanza del Uso Interno de la Inteligencia Artificial – Consideraciones Clave
Numerosos estudios indican que más del 70% de las empresas están utilizando inteligencia artificial (IA) internamente. En algunos casos, esto significa el desarrollo de herramientas autónomas o chatbots orientados al cliente para mejorar la eficiencia en ciertos flujos de trabajo. En otros, puede referirse a usos más generales de herramientas de IA ampliamente disponibles por parte de los empleados.
Riesgos Asociados a la IA
Aunque estas herramientas pueden crear eficiencias y reducir costos, gestionar su uso dentro de una organización es fundamental. La naturaleza misma de su uso, incluso de forma casual, puede introducir riesgos significativos que no son inmediatamente evidentes. Este artículo identifica varios de estos riesgos y proporciona sugerencias para su gestión.
Amenaza a los Derechos Legales Establecidos
En muchos casos, el uso de herramientas de IA requiere que la información sea transmitida por el usuario a un tercero para su procesamiento, con el producto resultante devuelto al usuario. Esta transmisión de datos fuera de una organización puede estar en conflicto con las mejores prácticas tradicionales para preservar la confidencialidad de la información y los requisitos legales para mantener derechos valiosos.
Por ejemplo, para patentar una tecnología, es necesario que la idea no haya sido divulgada públicamente anteriormente. La transmisión de información confidencial a un tercero mediante el uso de una herramienta de IA podría comprometer la patentabilidad de una idea. Por lo tanto, la información proporcionada a cualquier herramienta externa de IA debe ser controlada cuidadosamente.
Un problema similar se presenta con respecto a la preservación del privilegio abogado-cliente. La confidencialidad de la información compartida entre una persona o empresa y su asesor legal es un principio fundamental del derecho, pero este derecho existe solo mientras la información no se comparta con otras partes. El uso de herramientas de IA para la toma de notas puede poner fin a esta protección.
Amenaza a la Información Personal y las Medidas de Seguridad
Hay una creciente preocupación por las fallas de seguridad que surgen al introducir tecnologías no probadas en un ecosistema tecnológico existente. Sin salvaguardias adecuadas, es posible que actores malintencionados accedan a sistemas donde el procesamiento de una nueva herramienta de IA esté conectado a Internet. Asegurar que todos los servicios sean cuidadosamente evaluados es vital para proteger a las empresas de daños imprevistos.
También hay preocupaciones de que proporcionar cierta información, como datos personales, puede constituir una violación de las leyes que rigen el uso y la divulgación de dicha información. Se anticipa que las regulaciones sobre el uso de información personal con herramientas de IA se expandirán a nivel federal y provincial en un futuro cercano.
Necesidad de Transparencia y Supervisión Humana
A medida que los marcos regulatorios sobre la IA continúan desarrollándose, un elemento común en las discusiones políticas es la importancia de la transparencia. Las empresas deben tener cuidado de cumplir con los requisitos de divulgación asociados con su uso de sistemas de IA y desarrollar avisos apropiados para los usuarios.
Existen también muchos informes de empresas que producen informes «alucinados» para los clientes, donde las citas o datos subyacentes no se basan en información real. Para evitar riesgos legales derivados de estas alucinaciones, como el incumplimiento de contrato y problemas de reputación, las empresas deben garantizar una supervisión humana adecuada.
Necesidad de Responsabilidad y Gobernanza a Nivel de Junta
A pesar de las oportunidades emocionantes que presenta la IA, sus riesgos deben ser gestionados cuidadosamente. Esto significa que los directores y oficiales deben adaptar las prácticas de gobernanza tradicionales para asegurar una supervisión adecuada del uso de la IA.
Las empresas deben adoptar una Política de Gobernanza de IA que brinde un marco continuo para la supervisión de esta tecnología en rápida evolución. Los directores y oficiales deben asegurarse de comprender adecuadamente la tecnología subyacente de las herramientas de IA que se utilizan o se contemplan para su uso dentro de la organización.
La comprensión del marco regulatorio aplicable y el cumplimiento continuo son esenciales. Las empresas también deben conocer las restricciones contractuales sobre el uso de la IA y asegurarse de que estas no sean inconsistentes con el uso de herramientas de IA.
Las herramientas de IA ofrecen a los usuarios la oportunidad de lograr significativas eficiencias. Este artículo no sugiere que su uso conducirá inevitablemente a problemas significativos; más bien, se señalan algunos de los riesgos involucrados en la aplicación de estas herramientas nuevas y en rápida evolución, así como los enfoques para gobernarlas que pueden ayudar a gestionar estas preocupaciones.