Acta de IA de Europa: Lo que los empleadores deben saber
La inteligencia artificial (IA) está evolucionando rápidamente y se está aplicando en cada vez más situaciones, incluidas las empresas. Por esta razón, Europa ha introducido el Acta de IA, un marco legal uniforme con el que las empresas en Europa deben cumplir.
La ley entró en vigor el 2 de febrero de 2025, y los empleadores que no cumplan con ella corren el riesgo de enfrentar altas multas. Aunque las empresas del Reino Unido no tienen que seguir la ley a nivel nacional, cualquier empresa que opere en Europa o interactúe con el mercado de la UE deberá cumplir con ella a más tardar el domingo 2 de febrero.
Requisitos del Acta de IA
Los empleadores de la UE están obligados a tener una política de IA, que describa lo que están haciendo para garantizar que sus empleados sean alfabetizados en IA, de manera que sean conscientes de la IA y entiendan su potencial y riesgos para la organización. Además, los sistemas de IA que están prohibidos por Europa deben ser eliminados dentro de las organizaciones de la UE.
No todos los empleadores son conscientes de que la regulación europea ya estará en vigor a partir del 2 de febrero, aplicándose a todos los empleadores de todos los tamaños. Se aplica a cualquier organización con empleados (ya sea en nómina o trabajando para la organización a través de otra figura legal) que utilicen IA en nombre de la organización. Europa pone parte de la aplicación de esta parte del Acta de IA en manos de los estados miembros, al igual que las multas para aquellos que no cumplan. El tamaño exacto de esas multas no será claro hasta el 2 de agosto de 2025. Aun así, las empresas deben estar preparadas desde el 2 de febrero; después de todo, las multas pueden aplicarse de manera retroactiva.
¿Qué pasa con el Reino Unido?
Aunque no operes dentro de la UE, la historia reciente muestra una tendencia de la Gran Bretaña post-Brexit a crear regulaciones nacionales que cumplen en gran medida con los mismos objetivos que la UE. Con un partido Laborista que muestra interés en un acercamiento más estrecho a Europa y la IA tomando un papel cada vez más importante en nuestras vidas, las empresas en el Reino Unido deberían prepararse para una legislación nacional que se asemeje al Acta de IA en el futuro.
Política de IA y alfabetización adecuada en IA
Las empresas deben asegurarse de que su fuerza laboral sea suficientemente alfabetizada en IA. Esto no significa que cada empleado deba saber todo sobre la IA. Se trata de garantizar que todos en la organización que están involucrados con los sistemas de IA cuenten con el conocimiento y las habilidades para tomar decisiones informadas y reconocer riesgos y daños potenciales. Esto incluye a todos los empleados involucrados con sistemas de IA, desde proveedores hasta usuarios finales. Se extiende más allá de los profesionales de TIC dentro de las empresas, por ejemplo.
El Acta de IA no especifica las medidas exactas que un empleador debe tomar para que todas las personas involucradas adquieran un conocimiento suficiente de IA. Los empleadores deben considerar el conocimiento técnico, la experiencia, la educación y la formación de estas personas; el contexto en el que se utilizarán los sistemas de IA; y los individuos o grupos de individuos respecto a quienes se utilizarán los sistemas de IA.
El empleador puede decidir qué conocimientos y habilidades necesitan las personas involucradas y cómo adquieren este conocimiento. Se puede considerar formación general en IA con conocimientos básicos, posiblemente adaptados a diferentes grupos objetivo (qué es la IA, cuáles son sus limitaciones, cómo reconocer y prevenir riesgos, etc.). También puede incluir formaciones específicas centradas en determinadas herramientas y aplicaciones, así como cooperación entre equipos legales y técnicos.
Se recomienda que todos los empleadores, incluidos los del Reino Unido, creen una política de IA con directrices claras para el uso de IA dentro de la organización. Esto puede incluir qué aplicaciones pueden ser utilizadas por quién y de qué manera. En esta política, el empleador también puede proporcionar orientación sobre cómo los empleados pueden mantenerse suficientemente alfabetizados en IA. Por ejemplo, cuál es el procedimiento cuando algo cambia en la organización o en las herramientas. Después de todo, la alfabetización en IA no es estática. Si un empleado cambia de puesto o si cambian las herramientas que utiliza, el empleador debe asegurarse de que el empleado siga siendo adecuadamente alfabetizado en IA.
Sistemas de IA prohibidos
Asimismo, a partir del 2 de febrero de 2025, el Acta de IA prohíbe los sistemas de IA que violen las normas y valores fundamentales europeos, por ejemplo, debido a una violación de derechos fundamentales. Considera los sistemas de IA para “evaluación social”, que juzgan a las personas en función de su comportamiento social o características personales. Otro ejemplo son los sistemas de IA para reconocimiento emocional en el lugar de trabajo y en la educación; estos también serán prohibidos.
Los empleadores deben, por lo tanto, identificar los sistemas de IA que están utilizando para identificar cualquier sistema de IA prohibido y dejar de permitir su uso.
A partir del 2 de agosto de 2025, las organizaciones que desarrollen o implementen IA prohibida corren el riesgo de enfrentar altas multas. Aquí, la supervisión de esto y el tamaño de las multas recaen completamente en Europa. Las multas podrían ser de hasta 35 millones de EUR o hasta el 7% de los ingresos anuales globales totales del año fiscal anterior, lo que supere los 35 millones de EUR.