La adopción de IA en la publicidad y la necesidad de responsabilidad

La Adopción de la IA Está Aumentando en la Publicidad, pero ¿Está la Industria Preparada para una IA Responsable?

La IA se ha convertido en una parte regular del marketing y la publicidad: más de la mitad de los marketers ya utilizan GenAI para la creación de contenido y la segmentación de audiencias, mientras que casi todos planean expandir su uso de IA el próximo año, especialmente para el desarrollo de contenido y el compromiso con la audiencia. Sin embargo, mientras la adopción se acelera, las salvaguardias no lo hacen. Más del 70% de los marketers han encontrado un incidente relacionado con la IA en sus esfuerzos publicitarios, incluyendo alucinaciones, sesgos o contenido fuera de marca, y menos del 35% planea aumentar la inversión en gobernanza de IA o supervisión de la integridad de la marca en los próximos 12 meses.

La IA Está Presente en el Marketing y Sigue Creciendo

La IA ahora forma parte del kit de herramientas de marketing en todos los ámbitos. Más de la mitad de los marketers ya la utilizan para la creación de contenido creativo, la segmentación de audiencias y el soporte al cliente, y casi igual número la aplica a la analítica predictiva.

Además, el uso de IA está destinado a crecer: el 58% planea aumentar la IA para la generación creativa en el próximo año, junto con un uso ampliado en chatbots, segmentación y pronósticos. La IA no es solo una tendencia, se está convirtiendo rápidamente en el núcleo de cómo se realiza el marketing.

Preocupaciones sobre la IA: Incidentes que Impactan el ROI

Los marketers son conscientes de que puede haber riesgos con la publicidad generada por IA. Las principales preocupaciones incluyen desinformación y deepfakes, pérdida de control creativo y riesgos para la integridad de la marca debido a salidas ofensivas o dañinas. Muchos también se preocupan por la confianza del consumidor, con un 37% temiendo que las audiencias desconfíen de los anuncios creados por IA.

Otros problemas incluyen sesgos y equidad, cumplimiento normativo y el desafío de monitorear el contenido de IA a gran escala. Algunos mencionaron la amenaza de prompts adversariales, como jailbreaks que engañan a los modelos para comportamientos inseguros.

La conclusión es clara: la IA puede plantear serios riesgos éticos y de calidad, y los marketers saben que estos problemas pueden dañar la confianza y la reputación de la marca. Por ello, más del 60% apoyan etiquetar los anuncios generados por IA, con solo un 15% en contra, señalando un fuerte impulso hacia la transparencia como salvaguarda de confianza.

Salvaguardias Irregulares y una Falsa Sensación de Seguridad

A pesar del creciente riesgo, la supervisión de la IA sigue siendo inconsistente. La mayoría de los equipos dependen de la revisión humana y listas de verificación de integridad de marca, que son pasos importantes pero básicos. Las prácticas más avanzadas son mucho menos comunes, como consultar a expertos en ética de IA, realizar pruebas de equipo rojo y utilizar herramientas de evaluación automatizadas.

Alarmantemente, el 10% de los encuestados no hacen nada o no están seguros de cómo gestionan los riesgos de la IA. Sin embargo, la confianza sigue siendo alta. Casi el 90% dice sentirse preparados para detectar problemas de IA antes del lanzamiento. Esto puede reflejar confianza en los flujos de trabajo existentes, pero dado que el 70% ya ha tenido incidentes, también sugiere una falsa sensación de seguridad.

La realidad es que solo un tercio de las marcas, agencias y editores han adoptado o planean adoptar herramientas de gobernanza formal, dejando importantes brechas. Hay una fuerte necesidad y oportunidad para salvaguardias más estructuradas y escalables en toda la industria, incluyendo sistemas que marquen riesgos, aseguren alineación y protejan la confianza de la marca antes de que las campañas lleguen al público.

Demandas de la Industria por Normas, Herramientas y Transparencia

Los marketers están pidiendo una gobernanza más sólida de la IA. Cuando se les pregunta qué se necesita para mantener la IA en la publicidad de manera segura y efectiva, las principales prioridades incluyen auditorías regulares de IA para sesgos e integridad, transparencia en la toma de decisiones de IA, protecciones de privacidad de datos y salvaguardias de propiedad intelectual para el contenido creado por IA.

En resumen, los marketers quieren herramientas, políticas y estándares para cerrar las brechas de gobernanza reales. Solo el 6% cree que las salvaguardias actuales son suficientes. Esta es una oportunidad para que la industria defina sistemas, herramientas y estándares que puedan garantizar que las salidas de IA sean seguras, precisas y alineadas con los valores de la marca.

Responsabilidad y Liderazgo: ¿Quién Está Vigilando la IA?

Un gran desafío en la gobernanza de la IA es la propiedad. Cuando se les pregunta quién lidera estos esfuerzos, las respuestas varían, con la mayoría mencionando el liderazgo ejecutivo o un grupo de trabajo dedicado a la IA, los equipos de marketing/creativos o los equipos legales/de cumplimiento como los que lideran. Solo el 17% de las organizaciones actualmente utilizan un socio externo para la gobernanza de IA, lo que sugiere que la mayoría está construyendo capacidades internas. Pero no todos tienen una responsabilidad definida: el 14% dice que nadie es responsable de la gobernanza de la IA, y otros no están seguros de quién lo hace.

Sin una propiedad estructurada, los riesgos pueden caer entre las grietas. A medida que las empresas escalan GenAI, es crítico definir quién es responsable, ya sea un director de IA, un consejo multifuncional o un equipo dedicado. Esta claridad es esencial para pasar de buenas intenciones a soluciones accesibles que permitan la supervisión, las pruebas y la aplicación, independientemente de la estructura organizativa.

Apoyo de Terceros para la Gobernanza

Aunque la mayoría de las empresas actualmente gestionan la gobernanza de IA internamente, hay un gran interés en el apoyo externo. Cuando se les pregunta si considerarían una solución de terceros para evaluar riesgos como alucinaciones, sesgos o contenido fuera de marca, más del 90% dijo que sí.

Muchos ven la experiencia externa como una valiosa red de seguridad. Un marketer mencionó que ofrecería “tranquilidad”, mientras que otro señaló que “reduciría el riesgo para nuestra marca y negocio”. Solo unos pocos eran escépticos, principalmente debido a la confianza en los equipos internos o preocupaciones sobre el costo. Pero esos puntos de vista eran raros. Los marketers están abiertos y ansiosos por herramientas y orientación expertas para garantizar que su uso de GenAI sea seguro, efectivo y alineado con los valores de la marca. Esto presenta una oportunidad oportuna para asociarse con terceros de confianza para fortalecer la supervisión de la IA en toda la industria.

Un Llamado a la Acción sobre la IA Responsable

Esta encuesta muestra una industria que avanza rápidamente en IA, pero aún construyendo las barandillas mientras avanza. Los anunciantes están emocionados por el potencial de la IA para el contenido, la segmentación y el compromiso. Pero muchos ya han visto los riesgos de primera mano: desinformación, sesgos y contenido fuera de la marca que dañan la confianza y desperdician el presupuesto.

Los marketers envían un mensaje claro: quieren ayuda en forma de mejores estándares, herramientas más sólidas y apoyo experto para utilizar la IA de manera responsable. Ahora es el momento de la acción colectiva. Las marcas, agencias, editores y plataformas tienen un papel que desempeñar en la configuración de la gobernanza de la IA.

Aquí hay cuatro pasos para avanzar:

  1. Priorizar la gobernanza de la IA. Asignar propiedad, involucrar al liderazgo y establecer un grupo de trabajo multifuncional si aún no se tiene uno. Priorizar no solo quién es responsable, sino cómo se traduce la responsabilidad en flujos de trabajo, procesos de revisión y métodos de evaluación diarios.
  2. Construir buenas prácticas. Comenzar con verificaciones fundamentales como revisión humana, pautas de políticas, pruebas de sesgos, y avanzar hacia evaluaciones estructuradas, auditorías automatizadas (con supervisión humana donde sea apropiado) y monitoreo continuo que pueda escalar con el volumen de contenido y la complejidad del modelo.
  3. Incorporar apoyo experto para escalar. Acelerar de manera segura con expertos de confianza y herramientas de terceros diseñadas para evaluar, probar y certificar contenido impulsado por IA a gran escala, para que su equipo pueda moverse más rápido sin aumentar el riesgo.
  4. Ser transparentes. No solo decir que se utiliza la IA de manera responsable, sino demostrarlo. Construir sistemas que rastreen cómo se utiliza la IA, marquen riesgos y generen registros listos para auditorías. Mantenerse vigilantes sobre la equidad, la privacidad y la ética. La confianza del consumidor depende de ello.

Los datos son claros: la IA está transformando indiscutiblemente la publicidad, pero los incidentes ya están ocurriendo, las salvaguardias actuales no están manteniendo el ritmo, y los marketers necesitan mejores soluciones. Este no es un problema futuro por resolver, sino una realidad presente que exige acción inmediata para desbloquear todo el potencial de la IA. Con unos pocos pasos prácticos, la IA responsable no solo es posible, sino que puede convertirse en la norma.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...