Lo que los constructores de máquinas deben saber sobre la Ley de IA de la UE

Lo que los constructores de máquinas deben saber sobre la Ley de IA de la UE

La Ley de IA de la UE define cuatro niveles de riesgo para los sistemas de IA. Esta legislación, publicada el año pasado, podría tener implicaciones significativas para los constructores de máquinas. La finalidad de la Ley de IA es promover el uso de IA que sea centrada en el ser humano y confiable.

La inteligencia artificial es ahora una realidad y está comenzando a impactar nuestras vidas personales y laborales. Los constructores de máquinas ya están considerando el uso de IA para diversas tareas, incluidas aquellas dentro de los sistemas de control para automatización y robótica.

Dependiendo de cómo se desplieguen los sistemas de IA, puede haber implicaciones de seguridad. Por ejemplo, la IA podría determinar cómo reacciona un robot cuando una persona entra en su zona de operación. La Comisión Europea ha decidido legislar con el objetivo de promover la innovación, la inversión y la adopción general de la IA.

Fechas clave

El 1 de agosto de 2024, la regulación de inteligencia artificial (Reglamento (UE) 2024/1689) entró en vigor como la Ley de IA. La mayor parte de la legislación se aplicará a partir del 2 de agosto de 2026. Sin embargo, la fecha más relevante para los constructores de máquinas es el 2 de agosto de 2027, ya que es cuando los sistemas de IA de alto riesgo utilizados como componentes de seguridad comenzarán a ser regulados.

En el Reino Unido, el gobierno no está introduciendo legislación sobre IA porque considera que las leyes existentes son suficientes. No obstante, los constructores de máquinas del Reino Unido que suministran maquinaria a la UE deberán cumplir con la Ley de IA.

Pasos hacia la conformidad

Antes de que un sistema de IA se coloque en el mercado o se utilice por primera vez en la UE, debe estar marcado CE. Esto es cierto tanto si un sistema de IA se suministra por sí solo como si está embebido dentro de un producto, como una máquina. Si un sistema de IA está embebido dentro de un producto, el fabricante del producto se convierte en responsable del sistema de IA.

La Ley de IA diferencia entre “proveedores” y “desplegadores”. Por ejemplo, un constructor de máquinas sería el proveedor de un sistema de IA, mientras que el usuario final sería el desplegador.

El proceso de marcado CE tiene varias similitudes con el marcado CE para la Directiva de Maquinaria. Muchos de los pasos hacia la conformidad serán familiares para quienes hayan marcado una máquina según esta directiva.

La Ley de IA define varias categorías de sistemas de IA. Para los constructores de máquinas, el de interés es el de sistemas de IA de alto riesgo utilizados como componentes de seguridad. Estos sistemas tienen el potencial de tener un impacto significativo en la salud, seguridad o d derechos fundamentales de las personas.

Declaración de Conformidad

Una vez que un sistema de IA ha sido evaluado como conforme con los requisitos de la Ley, se puede redactar una Declaración de Conformidad (DoC). Si un sistema de IA está embebido dentro de otro producto, como una máquina, la DoC puede incorporarse dentro de la DoC de la Directiva de Maquinaria.

Los sistemas de IA de alto riesgo deben tener un marca CE física aplicada. Si esto no es posible, la marca debe aplicarse al embalaje o a la documentación acompañante. La marca física puede complementarse con un marcado CE digital.

Obligaciones continuas

Después de que un sistema de IA de alto riesgo se haya puesto en el mercado, el proveedor está obligado a realizar un monitoreo post-mercado durante toda la vida útil del sistema. Si ocurren incidentes graves, estos deben ser reportados a la autoridad de vigilancia del mercado correspondiente.

Los sistemas de IA de alto riesgo utilizados como componentes de seguridad deben tener registro automático de eventos, lo que ayudará en la vigilancia post-mercado.

Si un sistema de IA sufre modificaciones sustanciales, su conformidad debe ser reevaluada. Las modificaciones sustanciales incluyen el uso de un sistema de IA para un propósito para el cual no estaba destinado originalmente.

La Ley de IA establece reglas sobre penalizaciones por incumplimiento, que pueden incluir sanciones de hasta €15 millones o el 3% de la facturación anual mundial de una organización. Las multas relacionadas con sistemas de IA prohibidos son sustancialmente más altas.

More Insights

Protegiendo la Información Confidencial en la Era de la IA

Es importante tener cuidado con la información que compartimos al utilizar herramientas de inteligencia artificial, especialmente en un entorno laboral. La divulgación de datos confidenciales puede...

La Ley de IA de Colorado: Desafíos y Oportunidades

La ley pionera de Colorado sobre inteligencia artificial refleja importantes objetivos de equidad y transparencia en el uso de la IA. Sin embargo, la falta de adopción del SB318 deja a los empleadores...

Desafíos de Cumplimiento en la Era de la IA

La cumbre de Gobernanza y Estrategia de IA abordará los desafíos de cumplimiento y regulación de la inteligencia artificial en diferentes jurisdicciones. Expertos discutirán estrategias prácticas para...

Gobernanza Efectiva de IA en el Gobierno Federal

La inteligencia artificial (IA) avanza rápidamente, pero muchos organismos federales luchan por mantener una gobernanza adecuada, lo que ralentiza la innovación. La gobernanza eficaz de la IA no solo...

Claves del Éxito Empresarial: Gobernanza de IA y Centros de Excelencia

La inteligencia artificial se ha convertido en un factor fundamental para las empresas, pero su adopción efectiva presenta desafíos. Un Centro de Excelencia en IA actúa como un hub de innovación...

Nuevas Leyes de IA: Enfoques Contrastantes en Colorado y Utah

La legislatura de Colorado rechazó enmiendas al Acta de Inteligencia Artificial de Colorado, lo que establece un plazo hacia la fecha de efectividad de la ley el 1 de febrero de 2026. Mientras tanto...

Desafíos en la Aplicación de la Ley de IA de la UE por Falta de Recursos

Las luchas con la financiación y la retención de expertos plantearán desafíos para la aplicación de la Ley de IA de la UE, según el asesor de políticas digitales del Parlamento Europeo, Kai Zenner...

Fortaleciendo la Gobernanza de IA en Universidades

A medida que la inteligencia artificial (IA) se integra en la educación superior, las universidades deben adoptar prácticas de gobernanza robustas para garantizar un uso responsable de la IA. Esto...

Equilibrio entre la Innovación y la Seguridad en la IA

El congresista Ted Lieu está comprometido con equilibrar la innovación de la inteligencia artificial (IA) y la seguridad, abogando por un marco regulatorio que fomente la innovación sin comprometer la...