Modelo de gobernanza de IA que enfrenta el uso oculto

El nuevo modelo de gobernanza de IA que pone en alerta a la Shadow ITh2>

Las herramientas de b>inteligencia artificial (IA)b> se están expandiendo rápidamente en los lugares de trabajo, transformando la manera en que se realizan las tareas cotidianas. Desde equipos de marketing que redactan campañas en b>ChatGPTb>, hasta ingenieros de software que experimentan con generadores de código, la IA está infiltrándose silenciosamente en cada rincón de las operaciones comerciales. Sin embargo, gran parte de la adopción de IA ocurre sin supervisión ni gobernanza, lo que ha dado lugar a la b>Shadow AIb>, un nuevo punto ciego de seguridad.p>

La incidencia de uso no autorizado y no gestionado de la IA seguirá en aumento hasta que las organizaciones reconsideren su enfoque hacia la política de IA. Para los b>CIOsb>, la solución no radica en prohibir las herramientas de IA, sino en implementar b>guardrails flexiblesb> que equilibren la innovación y la gestión de riesgos. La urgencia es innegable: el b>93%b> de las organizaciones ha experimentado al menos un incidente de uso no autorizado de Shadow AI, y el b>36%b> informa múltiples instancias. Estas cifras revelan una desconexión alarmante entre las políticas formales de IA y cómo los empleados realmente interactúan con las herramientas de IA en su trabajo diario.p>

Cómo abordar el desafío de la Shadow AIh3>

Para adelantarse a los riesgos de la IA, las organizaciones deben contar con políticas de IA que fomenten su uso razonable, alineadas con su tolerancia al riesgo. Sin embargo, no pueden lograr esto con modelos de gobernanza obsoletos y herramientas que no están diseñadas para detectar y monitorear el uso de IA en todo su negocio.p>

Establecimiento de gobernanza y guardrailsh3>

Es esencial identificar el marco adecuado para la gobernanza de IA. Ya existen varios marcos y recursos, incluyendo guías del b>Department for Science, Innovation and Technology (DSIT)b>, el b>AI Playbook for Governmentb>, la b>Information Commissioner’s Office (ICO)b>, y el b>AI Standards Hubb>. Estos recursos pueden ayudar a las organizaciones a construir un marco responsable y robusto para la adopción de IA, complementando estándares internacionales de organismos como la b>Internet Society (ISO/IEC)b> y la b>Organisation for Economic Co-Operation and Development (OECD)b>.p>

Inversión en herramientas de visibilidadh3>

A medida que una empresa establece su hoja de ruta para la gestión de riesgos de IA, es crucial que el equipo de liderazgo en seguridad comience a evaluar cómo es realmente el uso de IA en su organización. Esto significa invertir en b>herramientas de visibilidadb> que puedan analizar patrones de acceso y comportamiento para identificar el uso de IA generativa en cada rincón de la organización.p>

Establecimiento de un consejo de IAh3>

Con esta información, el b>CISOb> debería considerar la posibilidad de establecer un consejo de IA compuesto por partes interesadas de toda la organización, incluyendo TI, seguridad, legal y la alta dirección, para discutir los riesgos, los problemas de cumplimiento y los beneficios que surgen tanto de herramientas autorizadas como no autorizadas. Este consejo puede comenzar a moldear políticas que satisfagan las necesidades del negocio de manera gestionada.p>

Por ejemplo, el consejo puede notar una herramienta de Shadow AI que ha ganado popularidad pero que puede no ser segura, para la cual existe una alternativa más segura. Se puede establecer una política que prohíba explícitamente la herramienta insegura y sugiera el uso de la alternativa. A menudo, estas políticas necesitarán estar acompañadas de inversiones no solo en controles de seguridad, sino también en esas herramientas alternativas de IA. El consejo también puede ayudar a crear un método para que los empleados presenten nuevas herramientas de IA para su evaluación y aprobación a medida que surgen avances en el mercado.p>

Actualización del entrenamiento sobre políticas de IAh3>

Involucrar y capacitar a los empleados será crucial para obtener la aceptación organizacional y mantener a raya la Shadow AI. Con políticas mejoradas, los empleados necesitarán orientación sobre las sutilezas del uso responsable de la IA, por qué existen ciertas políticas y los riesgos de manejo de datos. Esta capacitación puede ayudarlos a convertirse en socios activos en la innovación segura.p>

En algunos sectores, el uso de la IA en el trabajo ha sido a menudo un tema tabú. Definir claramente las mejores prácticas para el uso responsable de la IA y la razón detrás de las políticas y procesos de una organización puede eliminar la incertidumbre y mitigar el riesgo.p>

Gobernando el futuro de la IAh3>

La Shadow AI no va a desaparecer. A medida que las herramientas generativas se integran más profundamente en el trabajo diario, el desafío solo crecerá. Los líderes deben decidir si ver la Shadow AI como una amenaza incontrolable o como una oportunidad para repensar la gobernanza en la era de la IA. Las organizaciones que prosperen serán aquellas que abracen la innovación con guardrails claros, haciendo que la IA sea tanto segura como transformadora.p>

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...