Ley de IA en Europa: Lo que los empleadores deben saber

Acta de IA de Europa: Lo que los empleadores deben saber

La inteligencia artificial (IA) está evolucionando rápidamente y se está aplicando en cada vez más situaciones, incluidas las empresas. Por esta razón, Europa ha introducido el Acta de IA, un marco legal uniforme con el que las empresas en Europa deben cumplir.

La ley entró en vigor el 2 de febrero de 2025, y los empleadores que no cumplan con ella corren el riesgo de enfrentar altas multas. Aunque las empresas del Reino Unido no tienen que seguir la ley a nivel nacional, cualquier empresa que opere en Europa o interactúe con el mercado de la UE deberá cumplir con ella a más tardar el domingo 2 de febrero.

Requisitos del Acta de IA

Los empleadores de la UE están obligados a tener una política de IA, que describa lo que están haciendo para garantizar que sus empleados sean alfabetizados en IA, de manera que sean conscientes de la IA y entiendan su potencial y riesgos para la organización. Además, los sistemas de IA que están prohibidos por Europa deben ser eliminados dentro de las organizaciones de la UE.

No todos los empleadores son conscientes de que la regulación europea ya estará en vigor a partir del 2 de febrero, aplicándose a todos los empleadores de todos los tamaños. Se aplica a cualquier organización con empleados (ya sea en nómina o trabajando para la organización a través de otra figura legal) que utilicen IA en nombre de la organización. Europa pone parte de la aplicación de esta parte del Acta de IA en manos de los estados miembros, al igual que las multas para aquellos que no cumplan. El tamaño exacto de esas multas no será claro hasta el 2 de agosto de 2025. Aun así, las empresas deben estar preparadas desde el 2 de febrero; después de todo, las multas pueden aplicarse de manera retroactiva.

¿Qué pasa con el Reino Unido?

Aunque no operes dentro de la UE, la historia reciente muestra una tendencia de la Gran Bretaña post-Brexit a crear regulaciones nacionales que cumplen en gran medida con los mismos objetivos que la UE. Con un partido Laborista que muestra interés en un acercamiento más estrecho a Europa y la IA tomando un papel cada vez más importante en nuestras vidas, las empresas en el Reino Unido deberían prepararse para una legislación nacional que se asemeje al Acta de IA en el futuro.

Política de IA y alfabetización adecuada en IA

Las empresas deben asegurarse de que su fuerza laboral sea suficientemente alfabetizada en IA. Esto no significa que cada empleado deba saber todo sobre la IA. Se trata de garantizar que todos en la organización que están involucrados con los sistemas de IA cuenten con el conocimiento y las habilidades para tomar decisiones informadas y reconocer riesgos y daños potenciales. Esto incluye a todos los empleados involucrados con sistemas de IA, desde proveedores hasta usuarios finales. Se extiende más allá de los profesionales de TIC dentro de las empresas, por ejemplo.

El Acta de IA no especifica las medidas exactas que un empleador debe tomar para que todas las personas involucradas adquieran un conocimiento suficiente de IA. Los empleadores deben considerar el conocimiento técnico, la experiencia, la educación y la formación de estas personas; el contexto en el que se utilizarán los sistemas de IA; y los individuos o grupos de individuos respecto a quienes se utilizarán los sistemas de IA.

El empleador puede decidir qué conocimientos y habilidades necesitan las personas involucradas y cómo adquieren este conocimiento. Se puede considerar formación general en IA con conocimientos básicos, posiblemente adaptados a diferentes grupos objetivo (qué es la IA, cuáles son sus limitaciones, cómo reconocer y prevenir riesgos, etc.). También puede incluir formaciones específicas centradas en determinadas herramientas y aplicaciones, así como cooperación entre equipos legales y técnicos.

Se recomienda que todos los empleadores, incluidos los del Reino Unido, creen una política de IA con directrices claras para el uso de IA dentro de la organización. Esto puede incluir qué aplicaciones pueden ser utilizadas por quién y de qué manera. En esta política, el empleador también puede proporcionar orientación sobre cómo los empleados pueden mantenerse suficientemente alfabetizados en IA. Por ejemplo, cuál es el procedimiento cuando algo cambia en la organización o en las herramientas. Después de todo, la alfabetización en IA no es estática. Si un empleado cambia de puesto o si cambian las herramientas que utiliza, el empleador debe asegurarse de que el empleado siga siendo adecuadamente alfabetizado en IA.

Sistemas de IA prohibidos

Asimismo, a partir del 2 de febrero de 2025, el Acta de IA prohíbe los sistemas de IA que violen las normas y valores fundamentales europeos, por ejemplo, debido a una violación de derechos fundamentales. Considera los sistemas de IA para “evaluación social”, que juzgan a las personas en función de su comportamiento social o características personales. Otro ejemplo son los sistemas de IA para reconocimiento emocional en el lugar de trabajo y en la educación; estos también serán prohibidos.

Los empleadores deben, por lo tanto, identificar los sistemas de IA que están utilizando para identificar cualquier sistema de IA prohibido y dejar de permitir su uso.

A partir del 2 de agosto de 2025, las organizaciones que desarrollen o implementen IA prohibida corren el riesgo de enfrentar altas multas. Aquí, la supervisión de esto y el tamaño de las multas recaen completamente en Europa. Las multas podrían ser de hasta 35 millones de EUR o hasta el 7% de los ingresos anuales globales totales del año fiscal anterior, lo que supere los 35 millones de EUR.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...