Iniciativas esenciales de las empresas de Hong Kong para una IA segura

La Iniciativa de Seguridad en la IA en Hong Kong

A medida que la inteligencia artificial (IA) se desarrolla rápidamente, un número creciente de organizaciones está aprovechando esta tecnología para optimizar operaciones, mejorar la calidad y aumentar la competitividad.

Sin embargo, la IA también plantea riesgos de seguridad, incluidos riesgos para la privacidad de los datos personales, que no pueden ignorarse. Por ejemplo, las organizaciones que desarrollan o utilizan sistemas de IA a menudo recopilan, utilizan y procesan datos personales, lo que conlleva riesgos de privacidad, como la recopilación excesiva, el uso no autorizado y las violaciones de datos personales.

Declaraciones Internacionales sobre la Seguridad de la IA

La importancia de la seguridad en la IA se ha convertido en un tema común en declaraciones y resoluciones internacionales adoptadas en los últimos años. En 2023, 28 países, incluidos China y Estados Unidos, firmaron la Declaración de Bletchley en la Cumbre de Seguridad de la IA en el Reino Unido. Esta declaración afirmó que el uso indebido de modelos avanzados de IA podría causar daños catastróficos y enfatizó la necesidad urgente de abordar estos riesgos.

En 2024, la Asamblea General de las Naciones Unidas adoptó una resolución internacional sobre la IA, promoviendo sistemas de IA «seguros, confiables y dignos de confianza». En la Cumbre de Acción de IA en París en febrero, más de 60 países, incluido China, firmaron una declaración que enfatizaba que aprovechar los beneficios de la IA para el crecimiento económico y social depende de avanzar en la seguridad y la confianza en la IA.

Iniciativas de China en Gobernanza de IA

En cuanto a la innovación tecnológica e industrial, China ha enfatizado tanto el desarrollo como la seguridad. En 2023, el continente chino lanzó la Iniciativa Global de Gobernanza de IA, proponiendo principios como un enfoque centrado en las personas y el desarrollo de la IA para el bien.

Más recientemente, en abril, durante una sesión de estudio del Buró Político, el presidente Xi Jinping comentó que, aunque la IA presenta oportunidades de desarrollo sin precedentes, también trae riesgos y desafíos que no se habían visto antes.

Riesgos y Desafíos de la IA

Estos riesgos y desafíos son tan sin precedentes como reales. Hace aproximadamente dos años, Samsung prohibió a sus empleados el uso de ChatGPT debido a preocupaciones sobre la filtración de información interna sensible en tales plataformas. Esta medida fue provocada por la filtración accidental de código fuente interno sensible por parte de un ingeniero, lo que subraya la importancia de proteger los secretos comerciales en la era tecnológica.

Alrededor de la misma época, ChatGPT reportó un importante incidente de filtración de datos, en el que se filtraron datos sensibles, incluidos los encabezados de las conversaciones de los usuarios con el chatbot, nombres, direcciones de correo electrónico e incluso partes de sus números de tarjetas de crédito.

Uso de Chatbots en el Entorno Laboral

A medida que los chatbots impulsados por IA aumentan en madurez y popularidad, se introducen en los lugares de trabajo, donde los empleados los utilizan para preparar actas, resumir presentaciones, producir materiales promocionales o incluso crear o modificar códigos fuente internos.

No obstante, las organizaciones deben darse cuenta de que dicho uso de la IA, si bien ayuda a automatizar flujos de trabajo y aumentar la productividad, también plantea riesgos como la filtración de información confidencial o datos personales de los clientes, la recopilación excesiva o el uso inapropiado de los datos de los clientes y la producción de datos inexactos o sesgados.

Evaluaciones de Cumplimiento y Recomendaciones

Dada la privacidad y los riesgos de seguridad que plantea la IA, se llevaron a cabo controles de cumplimiento en 60 organizaciones de diversos sectores en febrero, y se publicó un informe a principios de mayo de este año. Estos controles se realizaron para entender si estas organizaciones cumplían con los requisitos relevantes de la Ordenanza de Protección de Datos Personales (Privacidad) en la recopilación, uso y procesamiento de datos personales durante el uso de la IA, y si existía una gobernanza adecuada.

Según los hallazgos, el 80% de las organizaciones examinadas utilizaban IA en sus operaciones diarias. Entre estas organizaciones, la mitad recopilaba y/o utilizaba datos personales a través de sistemas de IA. Sin embargo, no todas habían formulado políticas relacionadas con la IA. Solo aproximadamente el 63% de las organizaciones que recopilaron y/o utilizaron datos personales a través de sistemas de IA tenían tales políticas en su lugar. Hay claramente margen para la mejora.

Importancia de las Políticas Relacionadas con la IA

La importancia de contar con una política relacionada con la IA no puede subestimarse. Se recomienda a las organizaciones que formulen pautas internas sobre IA para equilibrar la eficacia empresarial y la protección de la privacidad de los datos.

Con este fin, se publicó la «Lista de Verificación sobre Pautas para el Uso de IA Generativa por Empleados» en marzo para ayudar a las organizaciones a desarrollar las políticas adecuadas mientras cumplen con la ordenanza de la ciudad sobre la IA.

Las pautas, presentadas en formato de lista de verificación, recomiendan que la política interna de IA de una organización incluya información sobre el uso permitido de la IA generativa, la protección de la privacidad de los datos personales, el uso legal y ético, la prevención de sesgos, la seguridad de los datos y las consecuencias de las violaciones.

Las organizaciones son responsables de asegurar que el desarrollo o uso de la IA no solo beneficie a la empresa, sino que también sea legal y seguro. Mientras aprovechan la IA para agudizar su ventaja competitiva, no deben permitir que la tecnología se descontrole o se convierta en su nuevo maestro.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...