Cumpliendo con la Ley de IA de la UE: Claves para Recursos Humanos

Transparencia, buenos datos y documentación: Cómo navegar el Acta de IA de la UE en Recursos Humanos

Con la inclusión de la inteligencia artificial (IA) en el lugar de trabajo bajo los usos prohibidos del Acta de IA de la UE, los departamentos de recursos humanos (RRHH) ahora tienen la tarea de reexaminar sus diversas aplicaciones de IA para cumplir con los requisitos de cumplimiento.

La IA utilizada en el empleo y en el entorno laboral se considera de “alto riesgo” según el Acta de IA y, por lo tanto, está sujeta a estipulaciones legales si puede afectar la salud, seguridad o empleo de una persona. Su uso en sistemas de reconocimiento emocional en el lugar de trabajo está prohibido.

No todas las implementaciones de IA centradas en RRHH se consideran de alto riesgo, según el comisionado adjunto de protección de datos de Irlanda. Sin embargo, aquellos que se preguntan cómo hacer esa distinción deben considerar cómo los reguladores ya han abordado la IA a través de regulaciones existentes, más notablemente el Reglamento General de Protección de Datos (RGPD) de la UE.

Obligaciones de evaluación de impacto de protección de datos

Los reguladores de protección de datos ya están tomando muy en serio la obligación de realizar evaluaciones de impacto de protección de datos (DPIA) en el contexto de los sistemas de IA. Esto se destacó en un panel de discusión en un evento sobre gobernanza de IA en Europa.

Los interesados en la IA instaron a los asistentes a prepararse para la incertidumbre, pero notaron que los principios de protección de datos de larga data en la UE pueden proporcionar orientación. Las prácticas estándar de transparencia de datos, incluida la documentación adecuada y la limitación de propósito, se aplican a los casos de uso de IA.

La importancia de la transparencia

Ser abierto sobre por qué se están recopilando datos y para qué se utilizan ayuda a resolver muchos problemas potenciales desde el principio. La transparencia inicial ayuda a construir el caso de intereses legítimos, incluso con un uso de IA de bajo riesgo. La claridad también respalda el concepto de consentimiento libremente dado para la recopilación de datos, un pilar del RGPD.

Se ha establecido un precedente para esto, ya que un tribunal judicial francés ordenó a una empresa que no consultó adecuadamente al Comité Social y Económico antes de implementar herramientas de IA a gran escala que se detuviera y volviera a la mesa de dibujo para involucrar a los representantes de los empleados.

Consideraciones sobre la anonimización

Eliminar características identificativas de los datos de entrenamiento de un modelo de IA ha sido visto como una forma de garantizar la privacidad y protección de datos. Sin embargo, la manera en que se realiza esto puede dejar espacio para la reidentificación, lo que plantea problemas de procesamiento. Los expertos advierten que la IA podría complicar aún más la verdadera anonimización para los departamentos de RRHH.

Las empresas están obligadas a garantizar que los datos que utilizan en la IA permanezcan confidenciales para otros clientes y empleados, y deben ser escépticas de las afirmaciones de los proveedores sobre información in rastreable.

Construyendo una narrativa sólida

Después de decidir si un uso particular de la IA es de alto riesgo y de que los datos de entrenamiento están suficientemente protegidos, los departamentos de RRHH deben realizar un caso claro sobre cómo se tomó la decisión de utilizar una aplicación de IA. La documentación contemporánea es necesaria para justificar el razonamiento, ya que el Acta de IA también requiere que los sistemas de alto riesgo tengan documentación sobre cómo funcionan y qué riesgos pueden presentar.

Las evaluaciones de impacto de protección de datos son los mejores medios para respaldar un caso de uso, ya que ayudan a los reguladores a comprender todos los aspectos del proceso de toma de decisiones. La documentación sobre por qué no se necesitó una DPIA también es importante, ya que no todos los usos de IA en RRHH pueden cumplir con el umbral de alto riesgo.

En resumen, la transparencia y la documentación adecuada son fundamentales para que los departamentos de recursos humanos naveguen por las complejidades del Acta de IA de la UE mientras buscan implementar soluciones de IA de manera responsable y efectiva.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...