Última Oportunidad para Influir en la Regulación de IA en la Aviación Europea

Las organizaciones de formación tienen hasta febrero para dar forma a la regulación de la IA en la UE

Su organización de formación tiene solo un mes para influir en cómo se regulará la IA en la aviación europea.

La consulta pública de la Agencia Europea de Seguridad Aérea (EASA) sobre su Marco de Fiabilidad de la IA cierra en febrero de 2026.

Guía técnica y grupos de trabajo

El Aviso de Propuesta de Enmienda proporciona orientación técnica sobre la fiabilidad de la IA para sistemas de alto riesgo contenidos en la Ley de IA de la UE. El grupo de elaboración de normas que ayudó a desarrollar el NPA incluye diversas entidades del sector.

La publicación es el primer paso de la tarea de elaboración de normas (RMT) 0742 y será seguida por un segundo NPA en 2026 para desplegar el marco a los reguladores. Esta publicación ayudará a la comunidad de aviación a prepararse para los requisitos futuros sobre asistencia basada en IA (IA de Nivel 1) y colaboración humano-IA (IA de Nivel 2). Aborda la orientación sobre la garantía de la IA, factores humanos y ética, y cubre sistemas basados en IA impulsados por datos, incluyendo aprendizaje automático supervisado y no supervisado.

Organizaciones afectadas y participación de la industria

Las organizaciones de formación, incluidas las organizaciones de formación aprobadas, las organizaciones de formación declaradas, las que operan FSTDs, las organizaciones de formación de controladores de tráfico aéreo y las organizaciones de formación de mantenimiento, así como los fabricantes de aeronaves no tripuladas y los operadores de aeronaves, están explícitamente enumeradas entre los interesados afectados.

EASA fomenta encarecidamente los comentarios de la industria en esta etapa para ayudar a desarrollar el marco.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...