Un Enfoque de Gobernanza de Seguridad por Diseño para Abordar los Daños en Línea Facilitados por la IA
El rápido crecimiento de la inteligencia artificial (IA) está transformando el paisaje digital, amplificando los daños en línea existentes y introduciendo nuevos y complejos riesgos de seguridad en línea. La IA generativa permite a los individuos, sin experiencia técnica, crear contenido sintético indistinguible del contenido auténtico. Un informe de Netsafe y el Instituto de IA de Asia-Pacífico destaca las implicaciones emergentes de seguridad en línea de la IA, señalando el aumento de los deepfakes como un claro ejemplo.
El problema de los Deepfakes
Los deepfakes se han convertido en una herramienta común para actores maliciosos que buscan infligir daño en línea y distorsionar el paisaje informativo. Solo en el primer trimestre de 2025, los fraudes por deepfake que impersonaban a figuras públicas y proveedores de servicios causaron pérdidas globales de 200 millones de dólares. Además, los deepfakes se han utilizado para crear contenido pornográfico que ataca desproporcionadamente a mujeres, jóvenes y niños, facilitando la sextorsión y el acoso, lo que ha llevado a países como Corea del Sur y Australia a criminalizar la creación de deepfakes sexuales no consensuados.
El contenido generado por IA también se utiliza para reforzar campañas de desinformación y manipulación que buscan influir en la opinión pública y alterar resultados electorales. En Rumania, las preocupaciones sobre la interferencia extranjera relacionada con la desinformación impulsada por IA llevaron a la anulación de las elecciones presidenciales de 2024.
La Necesidad de un Enfoque de Gobernanza por Diseño
Abordar la creciente sofisticación y volumen de los daños en línea facilitados por la IA requiere un enfoque de gobernanza por diseño de seguridad que apunte a diferentes etapas del ciclo de vida del daño en línea y considere tanto las dimensiones tecnológicas como humanas de la seguridad en línea. Este enfoque puede estructurarse en un marco de «Preparar-Cortar-Responder».
Marco de «Preparar-Cortar-Responder»
El escenario «Preparar» se centra en reducir la susceptibilidad de los usuarios finales a los daños en línea mediante esfuerzos de alfabetización en medios digitales para promover un uso informado de Internet. La etapa de «Cortar» aboga por intervenciones preventivas, como filtros de contenido y protocolos de marcas de agua que rastreen el origen del contenido generado por IA. La etapa de «Responder» emplea medidas reactivas destinadas a remediar los efectos del contenido dañino, como la consejería de crisis y vías de queja para buscar acciones legales y órdenes de eliminación de contenido.
Desafíos y Oportunidades
Aunque las intervenciones políticas nacionales son cruciales para abordar los impactos locales de los daños en línea facilitados por la IA, la gobernanza y acción internacional coordinada son necesarias para lidiar con su alcance y origen transnacional. Foros como la Red Global de Reguladores de Seguridad en Línea pueden facilitar la colaboración global en la intersección de la IA y la seguridad en línea.
En regiones como el Pacífico, donde se están realizando transformaciones digitales significativas, hay una ventana crítica de oportunidad para aplicar el marco «Preparar-Cortar-Responder». Fiji, por ejemplo, ha establecido un task force dedicado a fraudes y ha distribuido materiales de seguridad en línea para preparar al público contra los daños en línea.
Conclusión
La creación de un mundo digital más seguro requerirá marcos de gobernanza que se adapten a la constante evolución de la IA. Esto implica reconocer que las salvaguardias técnicas dirigidas a los modelos de IA no son una solución mágica. Al alinear la conciencia pública, las herramientas tecnológicas y las medidas políticas, se puede aprovechar la IA de manera más efectiva para abordar los riesgos que crea y fortalecer la capacidad de los países para combatir los daños en línea.