Ley de IA en Europa: Lo que los empleadores deben saber

Acta de IA de Europa: Lo que los empleadores deben saber

La inteligencia artificial (IA) está evolucionando rápidamente y se está aplicando en cada vez más situaciones, incluidas las empresas. Por esta razón, Europa ha introducido el Acta de IA, un marco legal uniforme con el que las empresas en Europa deben cumplir.

La ley entró en vigor el 2 de febrero de 2025, y los empleadores que no cumplan con ella corren el riesgo de enfrentar altas multas. Aunque las empresas del Reino Unido no tienen que seguir la ley a nivel nacional, cualquier empresa que opere en Europa o interactúe con el mercado de la UE deberá cumplir con ella a más tardar el domingo 2 de febrero.

Requisitos del Acta de IA

Los empleadores de la UE están obligados a tener una política de IA, que describa lo que están haciendo para garantizar que sus empleados sean alfabetizados en IA, de manera que sean conscientes de la IA y entiendan su potencial y riesgos para la organización. Además, los sistemas de IA que están prohibidos por Europa deben ser eliminados dentro de las organizaciones de la UE.

No todos los empleadores son conscientes de que la regulación europea ya estará en vigor a partir del 2 de febrero, aplicándose a todos los empleadores de todos los tamaños. Se aplica a cualquier organización con empleados (ya sea en nómina o trabajando para la organización a través de otra figura legal) que utilicen IA en nombre de la organización. Europa pone parte de la aplicación de esta parte del Acta de IA en manos de los estados miembros, al igual que las multas para aquellos que no cumplan. El tamaño exacto de esas multas no será claro hasta el 2 de agosto de 2025. Aun así, las empresas deben estar preparadas desde el 2 de febrero; después de todo, las multas pueden aplicarse de manera retroactiva.

¿Qué pasa con el Reino Unido?

Aunque no operes dentro de la UE, la historia reciente muestra una tendencia de la Gran Bretaña post-Brexit a crear regulaciones nacionales que cumplen en gran medida con los mismos objetivos que la UE. Con un partido Laborista que muestra interés en un acercamiento más estrecho a Europa y la IA tomando un papel cada vez más importante en nuestras vidas, las empresas en el Reino Unido deberían prepararse para una legislación nacional que se asemeje al Acta de IA en el futuro.

Política de IA y alfabetización adecuada en IA

Las empresas deben asegurarse de que su fuerza laboral sea suficientemente alfabetizada en IA. Esto no significa que cada empleado deba saber todo sobre la IA. Se trata de garantizar que todos en la organización que están involucrados con los sistemas de IA cuenten con el conocimiento y las habilidades para tomar decisiones informadas y reconocer riesgos y daños potenciales. Esto incluye a todos los empleados involucrados con sistemas de IA, desde proveedores hasta usuarios finales. Se extiende más allá de los profesionales de TIC dentro de las empresas, por ejemplo.

El Acta de IA no especifica las medidas exactas que un empleador debe tomar para que todas las personas involucradas adquieran un conocimiento suficiente de IA. Los empleadores deben considerar el conocimiento técnico, la experiencia, la educación y la formación de estas personas; el contexto en el que se utilizarán los sistemas de IA; y los individuos o grupos de individuos respecto a quienes se utilizarán los sistemas de IA.

El empleador puede decidir qué conocimientos y habilidades necesitan las personas involucradas y cómo adquieren este conocimiento. Se puede considerar formación general en IA con conocimientos básicos, posiblemente adaptados a diferentes grupos objetivo (qué es la IA, cuáles son sus limitaciones, cómo reconocer y prevenir riesgos, etc.). También puede incluir formaciones específicas centradas en determinadas herramientas y aplicaciones, así como cooperación entre equipos legales y técnicos.

Se recomienda que todos los empleadores, incluidos los del Reino Unido, creen una política de IA con directrices claras para el uso de IA dentro de la organización. Esto puede incluir qué aplicaciones pueden ser utilizadas por quién y de qué manera. En esta política, el empleador también puede proporcionar orientación sobre cómo los empleados pueden mantenerse suficientemente alfabetizados en IA. Por ejemplo, cuál es el procedimiento cuando algo cambia en la organización o en las herramientas. Después de todo, la alfabetización en IA no es estática. Si un empleado cambia de puesto o si cambian las herramientas que utiliza, el empleador debe asegurarse de que el empleado siga siendo adecuadamente alfabetizado en IA.

Sistemas de IA prohibidos

Asimismo, a partir del 2 de febrero de 2025, el Acta de IA prohíbe los sistemas de IA que violen las normas y valores fundamentales europeos, por ejemplo, debido a una violación de derechos fundamentales. Considera los sistemas de IA para “evaluación social”, que juzgan a las personas en función de su comportamiento social o características personales. Otro ejemplo son los sistemas de IA para reconocimiento emocional en el lugar de trabajo y en la educación; estos también serán prohibidos.

Los empleadores deben, por lo tanto, identificar los sistemas de IA que están utilizando para identificar cualquier sistema de IA prohibido y dejar de permitir su uso.

A partir del 2 de agosto de 2025, las organizaciones que desarrollen o implementen IA prohibida corren el riesgo de enfrentar altas multas. Aquí, la supervisión de esto y el tamaño de las multas recaen completamente en Europa. Las multas podrían ser de hasta 35 millones de EUR o hasta el 7% de los ingresos anuales globales totales del año fiscal anterior, lo que supere los 35 millones de EUR.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...