Lo que los constructores de máquinas deben saber sobre la Ley de IA de la UE

Lo que los constructores de máquinas deben saber sobre la Ley de IA de la UE

La Ley de IA de la UE define cuatro niveles de riesgo para los sistemas de IA. Esta legislación, publicada el año pasado, podría tener implicaciones significativas para los constructores de máquinas. La finalidad de la Ley de IA es promover el uso de IA que sea centrada en el ser humano y confiable.

La inteligencia artificial es ahora una realidad y está comenzando a impactar nuestras vidas personales y laborales. Los constructores de máquinas ya están considerando el uso de IA para diversas tareas, incluidas aquellas dentro de los sistemas de control para automatización y robótica.

Dependiendo de cómo se desplieguen los sistemas de IA, puede haber implicaciones de seguridad. Por ejemplo, la IA podría determinar cómo reacciona un robot cuando una persona entra en su zona de operación. La Comisión Europea ha decidido legislar con el objetivo de promover la innovación, la inversión y la adopción general de la IA.

Fechas clave

El 1 de agosto de 2024, la regulación de inteligencia artificial (Reglamento (UE) 2024/1689) entró en vigor como la Ley de IA. La mayor parte de la legislación se aplicará a partir del 2 de agosto de 2026. Sin embargo, la fecha más relevante para los constructores de máquinas es el 2 de agosto de 2027, ya que es cuando los sistemas de IA de alto riesgo utilizados como componentes de seguridad comenzarán a ser regulados.

En el Reino Unido, el gobierno no está introduciendo legislación sobre IA porque considera que las leyes existentes son suficientes. No obstante, los constructores de máquinas del Reino Unido que suministran maquinaria a la UE deberán cumplir con la Ley de IA.

Pasos hacia la conformidad

Antes de que un sistema de IA se coloque en el mercado o se utilice por primera vez en la UE, debe estar marcado CE. Esto es cierto tanto si un sistema de IA se suministra por sí solo como si está embebido dentro de un producto, como una máquina. Si un sistema de IA está embebido dentro de un producto, el fabricante del producto se convierte en responsable del sistema de IA.

La Ley de IA diferencia entre “proveedores” y “desplegadores”. Por ejemplo, un constructor de máquinas sería el proveedor de un sistema de IA, mientras que el usuario final sería el desplegador.

El proceso de marcado CE tiene varias similitudes con el marcado CE para la Directiva de Maquinaria. Muchos de los pasos hacia la conformidad serán familiares para quienes hayan marcado una máquina según esta directiva.

La Ley de IA define varias categorías de sistemas de IA. Para los constructores de máquinas, el de interés es el de sistemas de IA de alto riesgo utilizados como componentes de seguridad. Estos sistemas tienen el potencial de tener un impacto significativo en la salud, seguridad o d derechos fundamentales de las personas.

Declaración de Conformidad

Una vez que un sistema de IA ha sido evaluado como conforme con los requisitos de la Ley, se puede redactar una Declaración de Conformidad (DoC). Si un sistema de IA está embebido dentro de otro producto, como una máquina, la DoC puede incorporarse dentro de la DoC de la Directiva de Maquinaria.

Los sistemas de IA de alto riesgo deben tener un marca CE física aplicada. Si esto no es posible, la marca debe aplicarse al embalaje o a la documentación acompañante. La marca física puede complementarse con un marcado CE digital.

Obligaciones continuas

Después de que un sistema de IA de alto riesgo se haya puesto en el mercado, el proveedor está obligado a realizar un monitoreo post-mercado durante toda la vida útil del sistema. Si ocurren incidentes graves, estos deben ser reportados a la autoridad de vigilancia del mercado correspondiente.

Los sistemas de IA de alto riesgo utilizados como componentes de seguridad deben tener registro automático de eventos, lo que ayudará en la vigilancia post-mercado.

Si un sistema de IA sufre modificaciones sustanciales, su conformidad debe ser reevaluada. Las modificaciones sustanciales incluyen el uso de un sistema de IA para un propósito para el cual no estaba destinado originalmente.

La Ley de IA establece reglas sobre penalizaciones por incumplimiento, que pueden incluir sanciones de hasta €15 millones o el 3% de la facturación anual mundial de una organización. Las multas relacionadas con sistemas de IA prohibidos son sustancialmente más altas.

More Insights

Transformación de la Gobernanza de IA para Directores de Riesgo

La inteligencia artificial y las tecnologías de IA son fundamentales para el éxito de la función de riesgo. Los directores de riesgo pueden implementar IA para abordar el cumplimiento y gestionar...

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...