Riesgos de Seguridad en la Adopción Rápida de GenAI

Nuevas Exposiciones de Seguridad por la Adopción Rápida de GenAI que las Organizaciones Deben Abordar

La inteligencia artificial generativa (GenAI) ha pasado de ser una curiosidad a una fuerza central en la tecnología empresarial. Su capacidad para generar texto, código, imágenes y conocimientos bajo demanda la ha convertido en algo indispensable para los empleados que buscan simplificar la complejidad y acelerar la productividad. Sin embargo, junto con esta innovación y eficiencia, surge una exposición masiva al riesgo.

Desafíos de Seguridad en la Adopción de GenAI

En conversaciones con ejecutivos y líderes de gobernanza de IA de diversas industrias, un tema recurrente ha surgido: la seguridad de los datos ha pasado de ser una preocupación clave a convertirse en el punto focal de su estrategia y es ahora el desafío definitorio de la adopción de IA. A diferencia del software tradicional o incluso de olas anteriores de aprendizaje automático, GenAI cambia fundamentalmente el proceso de asegurar los datos dentro de una organización.

Estudios recientes han encontrado que el 95% de los pilotos de GenAI en empresas están fracasando. No es porque la tecnología sea débil; es porque las empresas carecen de los marcos de gobernanza y seguridad necesarios para operacionalizar GenAI de manera adecuada y responsable. Los líderes empresariales citan la seguridad de los datos como el principal riesgo comercial y de seguridad que obstaculiza una adopción más rápida de la IA.

Exposiciones a Considerar

GenAI crea una vasta y en constante expansión superficie de datos, complicando la gobernanza y seguridad de los datos empresariales de varias maneras interconectadas:

  • Filtración de entrada: GenAI puede ingerir datos en su forma bruta, incluidos texto, imágenes, audio, video y datos estructurados. Los usuarios finales pueden dirigir herramientas GenAI a nuevos conjuntos de datos con un esfuerzo mínimo.
  • Exposición de salida: Los modelos generativos no solo consumen, sino que también sintetizan. Un aviso puede extraer involuntariamente información de varios conjuntos de datos y exponerla a usuarios sin la debida autorización.
  • Accesibilidad sin supervisión: Los sistemas empresariales tradicionales requerían incorporación de proveedores y aprovisionamiento de TI. Hoy en día, GenAI está incrustado en todas partes, lo que permite a los empleados adoptarlo instantáneamente, eludiendo la gobernanza por completo.
  • Riesgo en la cadena de suministro de segundo nivel: Un proveedor puede parecer seguro, pero a menudo dependen de subcontratistas, cada uno introduciendo sus propios acuerdos de licencia y políticas.
  • Brechas de gobernanza en los datos de entrenamiento: Una vez que los datos ingresan a un modelo de IA, el control termina efectivamente. No se ha encontrado ninguna herramienta GenAI que permita solicitudes para eliminar información que ha ingerido.
  • Riesgo en el código de aplicación: La IA está cada vez más escribiendo el código que subyace a los sistemas empresariales. Los desarrolladores que utilizan herramientas GenAI pueden introducir sin querer dependencias inseguras o vulnerabilidades.

Abordando el Riesgo de GenAI

GenAI ya está incrustado en los flujos de trabajo empresariales, por lo que la cuestión para las empresas no es si adoptarlo, sino cómo hacerlo de manera responsable. Adoptar GenAI sin gobernanza conlleva riesgos de violaciones costosas, sanciones regulatorias y daños a la reputación.

La gobernanza de GenAI requiere visibilidad contextual no solo sobre qué datos tiene una empresa, dónde se encuentran y quién tiene acceso a ellos, sino también sobre cómo se utiliza GenAI. Las empresas deben ver qué herramientas se están accediendo, qué avisos se están ingresando y si datos sensibles están saliendo de su entorno.

GenAI representa una nueva capa de riesgo y oportunidad empresarial. Gestionarlo requiere la mentalidad de que la seguridad no es un freno a la innovación, sino la base que la hace segura.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...