Monitoreo de las leyes sobre el uso de IA en Filipinas en 2026

Monitoreo de las leyes sobre el uso de IA en Filipinas en 2026

El último año estuvo marcado por desarrollos legales y regulatorios significativos en el campo de la inteligencia artificial (IA), ya que el gobierno, junto con sus socios y otras partes interesadas, continúa reconociendo la necesidad de un enfoque integral, no solo en las áreas de innovación y competitividad, sino también en la gobernanza.

Filipinas promulgó recientemente la Ley de Gobernanza Electrónica, reconociendo expresamente la necesidad de aprovechar el poder de la tecnología de la información y las comunicaciones en la prestación de servicios públicos para impulsar el desarrollo y progreso nacional. Uno de sus objetivos es fomentar un proceso de toma de decisiones informado y basado en datos para los responsables de políticas mediante la utilización de resultados de análisis de datos, entre otros factores.

Programas de e-gobierno

Entre varios programas de gobierno electrónico que se buscan desarrollar o mejorar bajo la ley, se encuentra el Sistema de Información de Gestión de Capital Humano (HCMIS), que busca automatizar funciones relacionadas con recursos humanos en el gobierno utilizando análisis para proporcionar información necesaria para funciones estratégicas como la gestión del rendimiento, la previsión, la promoción y la planificación de sucesiones. El gobierno está interesado en aprovechar los beneficios de la automatización con la ayuda de la IA, abriendo así puertas para más inversiones y/o asociaciones con el sector privado.

Uno de los siete imperativos estratégicos bajo el Plan Nacional de Estrategia de IA 2.0 (NAISR 2.0) es transformar la educación y fomentar futuros talentos en IA. En línea con esto, el Departamento de Educación ha emitido recientemente sus Directrices Fundamentales sobre Inteligencia Artificial en la Educación Básica, que proporcionan el marco para la integración responsable de la IA en la educación básica basado en el principio de innovación segura.

Marco de las directrices

El marco de las directrices se basa en tres áreas interrelacionadas:

1. IA en la educación, con características clave que incluyen:

a. Supervisión humana, dejando claro que la IA es una herramienta de apoyo y, por lo tanto, no un sustituto del juicio profesional o la gestión del aula, y

b. Transparencia, al requerir divulgaciones del uso de IA cuando sea apropiado;

2. Educación sobre IA, que se centra en el desarrollo de habilidades digitales, pensamiento crítico y conciencia ética para que educadores y estudiantes puedan interactuar con herramientas de IA de forma segura, evaluar críticamente los resultados de la IA y tomar decisiones informadas;

3. IA para sistemas educativos, que abarca el uso de IA para mejorar la gobernanza educativa, la planificación, el monitoreo y las operaciones escolares.

Bajo esta última área, mientras el Departamento de Educación reconoce la importancia de las asociaciones y colaboraciones multisectoriales, requiere que los posibles proveedores/partners, entre otros, acuerden no entrenar modelos con los datos del departamento.

Regulación proporcionada por riesgos

Uno de los principios que subyacen en el marco de las directrices es la regulación proporcionada por riesgos, donde el departamento clasifica las aplicaciones y usos de IA por riesgo, aplicando controles más estrictos a los usos de alto riesgo mientras permite innovación segura para herramientas de riesgo mínimo o limitado. Las clasificaciones de riesgo, a su vez, se determinan por el propósito del sistema y el contexto de uso en lugar del usuario específico.

Antes de la implementación de tecnologías de IA, las escuelas deben someterse a una Evaluación de Madurez Digital, y antes de su uso, el sistema de IA debe registrarse en el Registro de IA del departamento.

Conexión y accesibilidad digital

Otro imperativo estratégico bajo NAISR 2.0 es establecer un entorno robusto, conectado y en red. En línea con esto, el país promulgó recientemente la Ley de Conectividad para Filipinos. Reconociendo la importancia de la inclusión digital y la necesidad de reducir la brecha digital, la ley persigue una política de «acceso abierto» para todos los participantes calificados de la industria de transmisión de datos en todos los segmentos de la red de transmisión de datos.

La ley también exige que el propietario de la infraestructura pasiva, arrendador u operador ponga a disposición para la co-localización y co-uso su infraestructura pasiva, que es necesaria para o capaz de apoyar redes o servicios de transmisión de datos de manera abierta, justa, razonable y no discriminatoria, sujeto a la viabilidad técnica.

Preocupaciones de ciberseguridad

Para abordar las preocupaciones legítimas sobre la ciberseguridad que surgen de una política de «acceso abierto», la ley requiere que los participantes de transmisión de datos aseguren una certificación de ciberseguridad de una organización de terceros reputada dentro de los dos años desde el registro; de lo contrario, puede ser suspendida o cancelada su registro.

Implicaciones internacionales

Desde una perspectiva internacional, las direcciones legales y políticas mencionadas están en línea con la asunción del país de la presidencia de la ASEAN, donde se espera que el avance responsable de la IA juegue un papel significativo. Se destacó la visión del presidente del país sobre los pilares de la ASEAN: paz y seguridad; economía; y socio-cultural.

Riesgos de privacidad de IA

Recientemente, se ordenó la retirada de la herramienta de IA Grok en el país por permitir la generación de contenido malicioso que involucra a personas reales, lo que potencialmente viola la Ley de Prevención del Cibercrimen, entre otras leyes penales. Sin embargo, la retirada se levantó unos días después, tras el compromiso del desarrollador de implementar medidas correctivas.

Considerando la estrecha proximidad regulatoria entre las aplicaciones de IA y la ley de protección de datos, se emitió una declaración conjunta sobre las imágenes generadas por IA y la protección de la privacidad, expresando preocupación por los sistemas de IA que generan imágenes y videos realistas que representan a individuos identificables sin su conocimiento y consentimiento.

Aunque las autoridades de protección de datos reconocen que puede ser necesaria la intervención regulatoria, instan a las organizaciones a:

1. Implementar salvaguardias robustas para prevenir el uso indebido de información personal;

2. Asegurar una transparencia significativa, incluyendo usos aceptables y consecuencias del uso indebido;

3. Proporcionar mecanismos efectivos y accesibles para que las personas soliciten la eliminación de contenido dañino que involucre información personal; y

4. Abordar riesgos específicos para los niños.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...