La Iniciativa de Seguridad en la IA en Hong Kong
A medida que la inteligencia artificial (IA) se desarrolla rápidamente, un número creciente de organizaciones está aprovechando esta tecnología para optimizar operaciones, mejorar la calidad y aumentar la competitividad.
Sin embargo, la IA también plantea riesgos de seguridad, incluidos riesgos para la privacidad de los datos personales, que no pueden ignorarse. Por ejemplo, las organizaciones que desarrollan o utilizan sistemas de IA a menudo recopilan, utilizan y procesan datos personales, lo que conlleva riesgos de privacidad, como la recopilación excesiva, el uso no autorizado y las violaciones de datos personales.
Declaraciones Internacionales sobre la Seguridad de la IA
La importancia de la seguridad en la IA se ha convertido en un tema común en declaraciones y resoluciones internacionales adoptadas en los últimos años. En 2023, 28 países, incluidos China y Estados Unidos, firmaron la Declaración de Bletchley en la Cumbre de Seguridad de la IA en el Reino Unido. Esta declaración afirmó que el uso indebido de modelos avanzados de IA podría causar daños catastróficos y enfatizó la necesidad urgente de abordar estos riesgos.
En 2024, la Asamblea General de las Naciones Unidas adoptó una resolución internacional sobre la IA, promoviendo sistemas de IA «seguros, confiables y dignos de confianza». En la Cumbre de Acción de IA en París en febrero, más de 60 países, incluido China, firmaron una declaración que enfatizaba que aprovechar los beneficios de la IA para el crecimiento económico y social depende de avanzar en la seguridad y la confianza en la IA.
Iniciativas de China en Gobernanza de IA
En cuanto a la innovación tecnológica e industrial, China ha enfatizado tanto el desarrollo como la seguridad. En 2023, el continente chino lanzó la Iniciativa Global de Gobernanza de IA, proponiendo principios como un enfoque centrado en las personas y el desarrollo de la IA para el bien.
Más recientemente, en abril, durante una sesión de estudio del Buró Político, el presidente Xi Jinping comentó que, aunque la IA presenta oportunidades de desarrollo sin precedentes, también trae riesgos y desafíos que no se habían visto antes.
Riesgos y Desafíos de la IA
Estos riesgos y desafíos son tan sin precedentes como reales. Hace aproximadamente dos años, Samsung prohibió a sus empleados el uso de ChatGPT debido a preocupaciones sobre la filtración de información interna sensible en tales plataformas. Esta medida fue provocada por la filtración accidental de código fuente interno sensible por parte de un ingeniero, lo que subraya la importancia de proteger los secretos comerciales en la era tecnológica.
Alrededor de la misma época, ChatGPT reportó un importante incidente de filtración de datos, en el que se filtraron datos sensibles, incluidos los encabezados de las conversaciones de los usuarios con el chatbot, nombres, direcciones de correo electrónico e incluso partes de sus números de tarjetas de crédito.
Uso de Chatbots en el Entorno Laboral
A medida que los chatbots impulsados por IA aumentan en madurez y popularidad, se introducen en los lugares de trabajo, donde los empleados los utilizan para preparar actas, resumir presentaciones, producir materiales promocionales o incluso crear o modificar códigos fuente internos.
No obstante, las organizaciones deben darse cuenta de que dicho uso de la IA, si bien ayuda a automatizar flujos de trabajo y aumentar la productividad, también plantea riesgos como la filtración de información confidencial o datos personales de los clientes, la recopilación excesiva o el uso inapropiado de los datos de los clientes y la producción de datos inexactos o sesgados.
Evaluaciones de Cumplimiento y Recomendaciones
Dada la privacidad y los riesgos de seguridad que plantea la IA, se llevaron a cabo controles de cumplimiento en 60 organizaciones de diversos sectores en febrero, y se publicó un informe a principios de mayo de este año. Estos controles se realizaron para entender si estas organizaciones cumplían con los requisitos relevantes de la Ordenanza de Protección de Datos Personales (Privacidad) en la recopilación, uso y procesamiento de datos personales durante el uso de la IA, y si existía una gobernanza adecuada.
Según los hallazgos, el 80% de las organizaciones examinadas utilizaban IA en sus operaciones diarias. Entre estas organizaciones, la mitad recopilaba y/o utilizaba datos personales a través de sistemas de IA. Sin embargo, no todas habían formulado políticas relacionadas con la IA. Solo aproximadamente el 63% de las organizaciones que recopilaron y/o utilizaron datos personales a través de sistemas de IA tenían tales políticas en su lugar. Hay claramente margen para la mejora.
Importancia de las Políticas Relacionadas con la IA
La importancia de contar con una política relacionada con la IA no puede subestimarse. Se recomienda a las organizaciones que formulen pautas internas sobre IA para equilibrar la eficacia empresarial y la protección de la privacidad de los datos.
Con este fin, se publicó la «Lista de Verificación sobre Pautas para el Uso de IA Generativa por Empleados» en marzo para ayudar a las organizaciones a desarrollar las políticas adecuadas mientras cumplen con la ordenanza de la ciudad sobre la IA.
Las pautas, presentadas en formato de lista de verificación, recomiendan que la política interna de IA de una organización incluya información sobre el uso permitido de la IA generativa, la protección de la privacidad de los datos personales, el uso legal y ético, la prevención de sesgos, la seguridad de los datos y las consecuencias de las violaciones.
Las organizaciones son responsables de asegurar que el desarrollo o uso de la IA no solo beneficie a la empresa, sino que también sea legal y seguro. Mientras aprovechan la IA para agudizar su ventaja competitiva, no deben permitir que la tecnología se descontrole o se convierta en su nuevo maestro.