Obligaciones del AI Act de la UE: Capacitación y Prácticas Prohibidas

Obligaciones del Acta de IA de la UE: Capacitación Obligatoria y Prácticas Prohibidas

A partir del 2 de febrero de 2025, los proveedores y desplegadores de sistemas de IA deberán garantizar la alfabetización en IA entre sus trabajadores, así como eliminar las prácticas de IA prohibidas. El Acta de IA de la UE entró en vigor el 1 de agosto de 2024, y las primeras obligaciones bajo la ley serán aplicables desde la fecha mencionada.

Alfabetización en IA

¿Qué obligaciones de capacitación en IA debe cumplir mi empresa?

El Artículo 4 del Acta de IA impone un requisito general de alfabetización en IA: “Los proveedores y desplegadores de sistemas de IA deberán tomar medidas para asegurar, en la medida de lo posible, un nivel suficiente de alfabetización en IA de su personal y otras personas que operen y utilicen sistemas de IA en su nombre”.

Las empresas, por lo tanto, tienen una gran flexibilidad para diseñar el contenido y el formato de su capacitación en IA, con el objetivo de cumplir esta obligación antes del 2 de febrero. Si bien contrarrestar acusaciones de incumplimiento será un desafío si las empresas no implementan ninguna forma de capacitación en IA, defenderse de argumentos de que la capacitación proporcionada fue inadecuada será mucho más sencillo si al menos se ofrece un entrenamiento básico.

¿Cuáles son las consecuencias del incumplimiento de las obligaciones sobre alfabetización en IA?

No se aplicarán multas directas ni otras sanciones por violar los requisitos de alfabetización en IA bajo el Artículo 4. A partir del 2 de agosto de 2026, los proveedores y desplegadores de sistemas de IA podrían enfrentarse a responsabilidad civil si el uso de sistemas de IA por parte de personal no adecuadamente capacitado causa daños a consumidores, socios comerciales u otras terceras partes.

¿Qué pueden hacer las empresas ahora?

Un primer paso útil es analizar qué entrenamientos o recursos de alfabetización en IA la empresa ha proporcionado a su fuerza laboral en el pasado y documentar estas medidas para evidenciar el cumplimiento y defenderse de futuras investigaciones de reguladores o reclamaciones de terceros.

Si un análisis no es factible o indica brechas en la capacitación en IA, las empresas pueden optar por implementar rápidamente medidas de alfabetización en IA para cerrar las brechas existentes de manera eficiente antes del 2 de febrero de 2025.

Prácticas Prohibidas de IA

¿Qué prácticas de IA prohíbe el Acta de IA?

El Artículo 5 del Acta de IA enumera varias prácticas y casos de uso de IA prohibidos. Estas prácticas se describen en términos relativamente generales, lo que deja margen para la interpretación y requiere un análisis matizado para determinar su aplicación en la práctica. Las prácticas prohibidas incluyen:

  • Sistemas de IA manipulativos: Sistemas que utilizan técnicas subliminales para alterar significativamente el comportamiento de una persona, causando daño físico o psicológico.
  • Sistemas de IA explotadores: Sistemas que explotan vulnerabilidades de grupos específicos, como niños o personas con discapacidades.
  • Análisis emocional en el lugar de trabajo: Sistemas que realizan análisis emocionales o categorización biométrica de empleados, lo que puede llevar a infracciones de privacidad.
  • Clasificación social con fines comerciales injustos: Sistemas de IA utilizados para clasificar individuos basándose en su comportamiento social o características personales.

¿Cuáles son las consecuencias del incumplimiento de las prohibiciones del Artículo 5 del Acta de IA?

El Artículo 99 del Acta de IA prevé sanciones severas para quienes participen en prácticas de IA prohibidas, incluidas multas de hasta 35 millones de euros o el 7% de la facturación global del año anterior por violación. Aunque el régimen de sanciones entrará en vigor el 2 de agosto de 2026, participar en prácticas prohibidas a partir del 2 de febrero de 2025 podría acarrear responsabilidad civil, administrativa o penal bajo otras leyes de la UE.

¿Qué pueden hacer las empresas ahora?

Las empresas pueden acceder a diversas formas prácticas de mitigar los riesgos de participar en prácticas de IA prohibidas. Es fundamental identificar y documentar los sistemas de IA utilizados en los procesos de negocio, especialmente aquellos que podrían caer dentro de las categorías de prácticas prohibidas.

Soluciones Prácticas para Mitigar el Riesgo

  • Identificar y evaluar sistemas de IA: Revisar los sistemas de IA para asegurarse de que no caigan en categorías prohibidas.
  • Documentar esfuerzos de cumplimiento: Documentar el razonamiento sobre por qué ciertos usos de IA no violan las prohibiciones.
  • Otros posibles objetivos: Analizar sistemas de IA para actividades de alto riesgo y asegurarse de que se cumplan las obligaciones de transparencia.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...