Obligaciones del AI Act de la UE: Capacitación y Prácticas Prohibidas

Obligaciones del Acta de IA de la UE: Capacitación Obligatoria y Prácticas Prohibidas

A partir del 2 de febrero de 2025, los proveedores y desplegadores de sistemas de IA deberán garantizar la alfabetización en IA entre sus trabajadores, así como eliminar las prácticas de IA prohibidas. El Acta de IA de la UE entró en vigor el 1 de agosto de 2024, y las primeras obligaciones bajo la ley serán aplicables desde la fecha mencionada.

Alfabetización en IA

¿Qué obligaciones de capacitación en IA debe cumplir mi empresa?

El Artículo 4 del Acta de IA impone un requisito general de alfabetización en IA: “Los proveedores y desplegadores de sistemas de IA deberán tomar medidas para asegurar, en la medida de lo posible, un nivel suficiente de alfabetización en IA de su personal y otras personas que operen y utilicen sistemas de IA en su nombre”.

Las empresas, por lo tanto, tienen una gran flexibilidad para diseñar el contenido y el formato de su capacitación en IA, con el objetivo de cumplir esta obligación antes del 2 de febrero. Si bien contrarrestar acusaciones de incumplimiento será un desafío si las empresas no implementan ninguna forma de capacitación en IA, defenderse de argumentos de que la capacitación proporcionada fue inadecuada será mucho más sencillo si al menos se ofrece un entrenamiento básico.

¿Cuáles son las consecuencias del incumplimiento de las obligaciones sobre alfabetización en IA?

No se aplicarán multas directas ni otras sanciones por violar los requisitos de alfabetización en IA bajo el Artículo 4. A partir del 2 de agosto de 2026, los proveedores y desplegadores de sistemas de IA podrían enfrentarse a responsabilidad civil si el uso de sistemas de IA por parte de personal no adecuadamente capacitado causa daños a consumidores, socios comerciales u otras terceras partes.

¿Qué pueden hacer las empresas ahora?

Un primer paso útil es analizar qué entrenamientos o recursos de alfabetización en IA la empresa ha proporcionado a su fuerza laboral en el pasado y documentar estas medidas para evidenciar el cumplimiento y defenderse de futuras investigaciones de reguladores o reclamaciones de terceros.

Si un análisis no es factible o indica brechas en la capacitación en IA, las empresas pueden optar por implementar rápidamente medidas de alfabetización en IA para cerrar las brechas existentes de manera eficiente antes del 2 de febrero de 2025.

Prácticas Prohibidas de IA

¿Qué prácticas de IA prohíbe el Acta de IA?

El Artículo 5 del Acta de IA enumera varias prácticas y casos de uso de IA prohibidos. Estas prácticas se describen en términos relativamente generales, lo que deja margen para la interpretación y requiere un análisis matizado para determinar su aplicación en la práctica. Las prácticas prohibidas incluyen:

  • Sistemas de IA manipulativos: Sistemas que utilizan técnicas subliminales para alterar significativamente el comportamiento de una persona, causando daño físico o psicológico.
  • Sistemas de IA explotadores: Sistemas que explotan vulnerabilidades de grupos específicos, como niños o personas con discapacidades.
  • Análisis emocional en el lugar de trabajo: Sistemas que realizan análisis emocionales o categorización biométrica de empleados, lo que puede llevar a infracciones de privacidad.
  • Clasificación social con fines comerciales injustos: Sistemas de IA utilizados para clasificar individuos basándose en su comportamiento social o características personales.

¿Cuáles son las consecuencias del incumplimiento de las prohibiciones del Artículo 5 del Acta de IA?

El Artículo 99 del Acta de IA prevé sanciones severas para quienes participen en prácticas de IA prohibidas, incluidas multas de hasta 35 millones de euros o el 7% de la facturación global del año anterior por violación. Aunque el régimen de sanciones entrará en vigor el 2 de agosto de 2026, participar en prácticas prohibidas a partir del 2 de febrero de 2025 podría acarrear responsabilidad civil, administrativa o penal bajo otras leyes de la UE.

¿Qué pueden hacer las empresas ahora?

Las empresas pueden acceder a diversas formas prácticas de mitigar los riesgos de participar en prácticas de IA prohibidas. Es fundamental identificar y documentar los sistemas de IA utilizados en los procesos de negocio, especialmente aquellos que podrían caer dentro de las categorías de prácticas prohibidas.

Soluciones Prácticas para Mitigar el Riesgo

  • Identificar y evaluar sistemas de IA: Revisar los sistemas de IA para asegurarse de que no caigan en categorías prohibidas.
  • Documentar esfuerzos de cumplimiento: Documentar el razonamiento sobre por qué ciertos usos de IA no violan las prohibiciones.
  • Otros posibles objetivos: Analizar sistemas de IA para actividades de alto riesgo y asegurarse de que se cumplan las obligaciones de transparencia.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...