Gobernanza de datos de confianza cero: protegiendo modelos de IA

Gobernanza de datos de confianza cero necesaria para proteger los modelos de IA de la desinformación

Las organizaciones deben ser menos confiadas con los datos, dado cuánto de ellos es generado por inteligencia artificial, según una nueva investigación.

El aumento de la IA generativa

A medida que más empresas se suman a la tendencia de la IA generativa, el riesgo de que futuros modelos de lenguaje se entrenen con salidas de modelos anteriores aumenta, lo que incrementa el peligro de un colapso de modelos.

Recomendaciones para gestionar riesgos

Para evitar esto, se recomienda que las empresas realicen cambios en la gestión de datos no verificados. Estas recomendaciones incluyen:

  • Nombrar un líder de gobernanza de IA que trabaje en estrecha colaboración con los equipos de datos y análisis.
  • Mejorar la colaboración entre departamentos mediante grupos interfuncionales que incluyan representantes de ciberseguridad, datos y análisis.
  • Actualizar las políticas de seguridad y gestión de datos existentes para abordar los riesgos de los datos generados por IA.

Adopción de una postura de confianza cero

Se predice que para 2028, el 50% de las organizaciones tendrán que adoptar una postura de confianza cero para la gobernanza de datos como resultado del aumento de datos no verificados generados por IA.

El enfoque de confianza cero establece medidas de autenticación y verificación, esenciales para salvaguardar los resultados comerciales y financieros.

Desafíos regulatorios

Los diferentes enfoques gubernamentales hacia la IA complican aún más la situación. Los requisitos pueden variar significativamente entre geografías, con algunas jurisdicciones buscando imponer controles más estrictos sobre el contenido generado por IA, mientras que otras pueden adoptar un enfoque más flexible.

Ejemplo de problemas de gobernanza de datos

Un ejemplo notable de cómo la IA puede causar problemas de gobernanza de datos fue cuando una empresa tuvo que reembolsar parte de un contrato gubernamental tras incluir errores generados por IA en un informe final, incluyendo citas legales que no existían.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...