Enfoque de Gobernanza para la Seguridad en la Era de la IA

Un Enfoque de Gobernanza de Seguridad por Diseño para Abordar los Daños en Línea Facilitados por la IA

El rápido crecimiento de la inteligencia artificial (IA) está transformando el paisaje digital, amplificando los daños en línea existentes y introduciendo nuevos y complejos riesgos de seguridad en línea. La IA generativa permite a los individuos, sin experiencia técnica, crear contenido sintético indistinguible del contenido auténtico. Un informe de Netsafe y el Instituto de IA de Asia-Pacífico destaca las implicaciones emergentes de seguridad en línea de la IA, señalando el aumento de los deepfakes como un claro ejemplo.

El problema de los Deepfakes

Los deepfakes se han convertido en una herramienta común para actores maliciosos que buscan infligir daño en línea y distorsionar el paisaje informativo. Solo en el primer trimestre de 2025, los fraudes por deepfake que impersonaban a figuras públicas y proveedores de servicios causaron pérdidas globales de 200 millones de dólares. Además, los deepfakes se han utilizado para crear contenido pornográfico que ataca desproporcionadamente a mujeres, jóvenes y niños, facilitando la sextorsión y el acoso, lo que ha llevado a países como Corea del Sur y Australia a criminalizar la creación de deepfakes sexuales no consensuados.

El contenido generado por IA también se utiliza para reforzar campañas de desinformación y manipulación que buscan influir en la opinión pública y alterar resultados electorales. En Rumania, las preocupaciones sobre la interferencia extranjera relacionada con la desinformación impulsada por IA llevaron a la anulación de las elecciones presidenciales de 2024.

La Necesidad de un Enfoque de Gobernanza por Diseño

Abordar la creciente sofisticación y volumen de los daños en línea facilitados por la IA requiere un enfoque de gobernanza por diseño de seguridad que apunte a diferentes etapas del ciclo de vida del daño en línea y considere tanto las dimensiones tecnológicas como humanas de la seguridad en línea. Este enfoque puede estructurarse en un marco de «Preparar-Cortar-Responder».

Marco de «Preparar-Cortar-Responder»

El escenario «Preparar» se centra en reducir la susceptibilidad de los usuarios finales a los daños en línea mediante esfuerzos de alfabetización en medios digitales para promover un uso informado de Internet. La etapa de «Cortar» aboga por intervenciones preventivas, como filtros de contenido y protocolos de marcas de agua que rastreen el origen del contenido generado por IA. La etapa de «Responder» emplea medidas reactivas destinadas a remediar los efectos del contenido dañino, como la consejería de crisis y vías de queja para buscar acciones legales y órdenes de eliminación de contenido.

Desafíos y Oportunidades

Aunque las intervenciones políticas nacionales son cruciales para abordar los impactos locales de los daños en línea facilitados por la IA, la gobernanza y acción internacional coordinada son necesarias para lidiar con su alcance y origen transnacional. Foros como la Red Global de Reguladores de Seguridad en Línea pueden facilitar la colaboración global en la intersección de la IA y la seguridad en línea.

En regiones como el Pacífico, donde se están realizando transformaciones digitales significativas, hay una ventana crítica de oportunidad para aplicar el marco «Preparar-Cortar-Responder». Fiji, por ejemplo, ha establecido un task force dedicado a fraudes y ha distribuido materiales de seguridad en línea para preparar al público contra los daños en línea.

Conclusión

La creación de un mundo digital más seguro requerirá marcos de gobernanza que se adapten a la constante evolución de la IA. Esto implica reconocer que las salvaguardias técnicas dirigidas a los modelos de IA no son una solución mágica. Al alinear la conciencia pública, las herramientas tecnológicas y las medidas políticas, se puede aprovechar la IA de manera más efectiva para abordar los riesgos que crea y fortalecer la capacidad de los países para combatir los daños en línea.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...