Cumpliendo con la Ley de IA de la UE: Claves para Recursos Humanos

Transparencia, buenos datos y documentación: Cómo navegar el Acta de IA de la UE en Recursos Humanos

Con la inclusión de la inteligencia artificial (IA) en el lugar de trabajo bajo los usos prohibidos del Acta de IA de la UE, los departamentos de recursos humanos (RRHH) ahora tienen la tarea de reexaminar sus diversas aplicaciones de IA para cumplir con los requisitos de cumplimiento.

La IA utilizada en el empleo y en el entorno laboral se considera de “alto riesgo” según el Acta de IA y, por lo tanto, está sujeta a estipulaciones legales si puede afectar la salud, seguridad o empleo de una persona. Su uso en sistemas de reconocimiento emocional en el lugar de trabajo está prohibido.

No todas las implementaciones de IA centradas en RRHH se consideran de alto riesgo, según el comisionado adjunto de protección de datos de Irlanda. Sin embargo, aquellos que se preguntan cómo hacer esa distinción deben considerar cómo los reguladores ya han abordado la IA a través de regulaciones existentes, más notablemente el Reglamento General de Protección de Datos (RGPD) de la UE.

Obligaciones de evaluación de impacto de protección de datos

Los reguladores de protección de datos ya están tomando muy en serio la obligación de realizar evaluaciones de impacto de protección de datos (DPIA) en el contexto de los sistemas de IA. Esto se destacó en un panel de discusión en un evento sobre gobernanza de IA en Europa.

Los interesados en la IA instaron a los asistentes a prepararse para la incertidumbre, pero notaron que los principios de protección de datos de larga data en la UE pueden proporcionar orientación. Las prácticas estándar de transparencia de datos, incluida la documentación adecuada y la limitación de propósito, se aplican a los casos de uso de IA.

La importancia de la transparencia

Ser abierto sobre por qué se están recopilando datos y para qué se utilizan ayuda a resolver muchos problemas potenciales desde el principio. La transparencia inicial ayuda a construir el caso de intereses legítimos, incluso con un uso de IA de bajo riesgo. La claridad también respalda el concepto de consentimiento libremente dado para la recopilación de datos, un pilar del RGPD.

Se ha establecido un precedente para esto, ya que un tribunal judicial francés ordenó a una empresa que no consultó adecuadamente al Comité Social y Económico antes de implementar herramientas de IA a gran escala que se detuviera y volviera a la mesa de dibujo para involucrar a los representantes de los empleados.

Consideraciones sobre la anonimización

Eliminar características identificativas de los datos de entrenamiento de un modelo de IA ha sido visto como una forma de garantizar la privacidad y protección de datos. Sin embargo, la manera en que se realiza esto puede dejar espacio para la reidentificación, lo que plantea problemas de procesamiento. Los expertos advierten que la IA podría complicar aún más la verdadera anonimización para los departamentos de RRHH.

Las empresas están obligadas a garantizar que los datos que utilizan en la IA permanezcan confidenciales para otros clientes y empleados, y deben ser escépticas de las afirmaciones de los proveedores sobre información in rastreable.

Construyendo una narrativa sólida

Después de decidir si un uso particular de la IA es de alto riesgo y de que los datos de entrenamiento están suficientemente protegidos, los departamentos de RRHH deben realizar un caso claro sobre cómo se tomó la decisión de utilizar una aplicación de IA. La documentación contemporánea es necesaria para justificar el razonamiento, ya que el Acta de IA también requiere que los sistemas de alto riesgo tengan documentación sobre cómo funcionan y qué riesgos pueden presentar.

Las evaluaciones de impacto de protección de datos son los mejores medios para respaldar un caso de uso, ya que ayudan a los reguladores a comprender todos los aspectos del proceso de toma de decisiones. La documentación sobre por qué no se necesitó una DPIA también es importante, ya que no todos los usos de IA en RRHH pueden cumplir con el umbral de alto riesgo.

En resumen, la transparencia y la documentación adecuada son fundamentales para que los departamentos de recursos humanos naveguen por las complejidades del Acta de IA de la UE mientras buscan implementar soluciones de IA de manera responsable y efectiva.

More Insights

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...

Guía esencial de la AMA para la adopción y gobernanza de la IA en el sector salud

La AMA ha publicado una guía sobre la adopción y gobernanza de la inteligencia artificial (IA) para sistemas de salud, destacando la importancia de establecer políticas adecuadas en un entorno...

La ONU establece un panel sobre IA y un diálogo global para su gobernanza

La Asamblea General de las Naciones Unidas ha adoptado una resolución para establecer un Panel Científico Internacional Independiente sobre Inteligencia Artificial y un Diálogo Global sobre la...

La próxima ola de amenazas cibernéticas: del envenenamiento de datos a los agentes de IA

A medida que la inteligencia artificial (IA) se adopta rápidamente en diversas industrias, también aumenta la exposición a riesgos cibernéticos. Los modelos de IA generativa están creando nuevas...

Ética y Gobernanza de la IA en el Sudeste Asiático

En este artículo, Nguyen Hoang Minh Ngoc explora el panorama actual de la gobernanza y la ética de la inteligencia artificial (IA) en los seis países del sudeste asiático. Se destaca la necesidad de...