Consulta sobre la clasificación de sistemas de IA de alto riesgo

Consulta a Partes Interesadas sobre la Clasificación de Sistemas de IA como de Alto Riesgo

La consulta está dirigida a partes interesadas de diversas categorías, incluyendo proveedores y desplegadores de sistemas de IA (de alto riesgo), organizaciones industriales, academia, expertos independientes, organizaciones de la sociedad civil y autoridades públicas.

Marco Legal: La Ley de Inteligencia Artificial

La Ley de Inteligencia Artificial (la ‘Ley de IA’), que entró en vigor el 1 de agosto de 2024, establece un mercado único y normas armonizadas para una inteligencia artificial confiable y centrada en el ser humano en la UE. Su objetivo es promover la innovación y la adopción de la IA, garantizando al mismo tiempo un alto nivel de protección de la salud, la seguridad y los derechos fundamentales, incluyendo la democracia y el estado de derecho.

La Ley de IA adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en diferentes categorías de riesgo, siendo los sistemas de IA de alto riesgo uno de ellos (Capítulo III de la Ley de IA). Las obligaciones relevantes para estos sistemas serán aplicables dos años después de la entrada en vigor de la Ley, a partir del 2 de agosto de 2026.

Categorías de Sistemas de IA de Alto Riesgo

La Ley de IA distingue entre dos categorías de sistemas de IA considerados como de alto riesgo, establecidas en los Artículos 6(1) y 6(2) de la Ley de IA. El Artículo 6(1) abarca los sistemas de IA que se integran como componentes de seguridad en productos o que son productos cubiertos por la legislación de la Unión en el Anexo I, que podrían tener un impacto adverso en la salud y la seguridad de las personas. El Artículo 6(2) cubre sistemas de IA que, según su propósito previsto, se consideran que representan un riesgo significativo para la salud, la seguridad o los derechos fundamentales.

Obligaciones para Proveedores y Desplegadores

Los sistemas de IA que se clasifican como de alto riesgo deben ser desarrollados y diseñados para cumplir con los requisitos establecidos en el Capítulo III Sección 2, en relación con la gobernanza de datos, documentación, transparencia y provisión de información a los usuarios, supervisión humana, robustez, precisión y seguridad. Los proveedores de sistemas de IA de alto riesgo deben garantizar que su sistema cumpla con estos requisitos y deben cumplir con diversas obligaciones establecidas en el Capítulo III Sección 3, incluyendo la obligación de implementar un sistema de gestión de calidad y asegurar que el sistema de IA de alto riesgo se someta a una evaluación de conformidad antes de su comercialización o puesta en servicio.

La Ley de IA también establece obligaciones para los desplegadores de sistemas de IA de alto riesgo, relacionadas con el uso correcto, supervisión humana y monitoreo del funcionamiento del sistema de IA, así como, en ciertos casos, la transparencia hacia las personas afectadas.

Guías y Ejemplos Prácticos

De acuerdo con el Artículo 6(5) de la Ley de IA, la Comisión está obligada a proporcionar guías que especifiquen la implementación práctica del Artículo 6, que establece las normas para la clasificación de alto riesgo, antes del 2 de febrero de 2026. Además, estas guías deben ir acompañadas de una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que son de alto riesgo y no de alto riesgo.

La consulta tiene como propósito recopilar aportes de las partes interesadas sobre ejemplos prácticos de sistemas de IA y cuestiones que necesitan ser aclaradas en las guías de la Comisión sobre la clasificación de sistemas de IA de alto riesgo y futuras directrices sobre requisitos y obligaciones de alto riesgo.

Dado que no todas las preguntas pueden ser relevantes para todos los interesados, se invita a los encuestados a responder solo a las secciones y preguntas que deseen. Se alienta a los participantes a proporcionar explicaciones y casos prácticos como parte de sus respuestas para apoyar la utilidad práctica de las guías.

Estructura del Cuestionario

El cuestionario para esta consulta está estructurado en 5 secciones, con varias preguntas. Las secciones 1 y 2 solicitan respuestas según las partes de la encuesta en las que los encuestados expresaron interés. Se requiere que todos los participantes proporcionen aportes para las secciones 3, 4 y 5.

  • Sección 1: Preguntas sobre las normas de clasificación de sistemas de IA de alto riesgo en el Artículo 6(1) y el Anexo I de la Ley de IA.
  • Sección 2: Preguntas sobre la clasificación de sistemas de IA de alto riesgo en el Artículo 6(2) y el Anexo III de la Ley de IA.
  • Sección 3: Preguntas generales sobre la clasificación de alto riesgo.
  • Sección 4: Preguntas relacionadas con los requisitos y obligaciones para sistemas de IA de alto riesgo.
  • Sección 5: Preguntas sobre la necesidad de enmienda de la lista de casos de uso de alto riesgo en el Anexo III y de prácticas prohibidas.

Todas las contribuciones a esta consulta pueden ser divulgadas públicamente. Por lo tanto, se recomienda no compartir información confidencial. Los individuos pueden solicitar que su contribución sea anonimizada. Los datos personales serán anonimizados.

La Oficina de IA publicará un resumen de los resultados de la consulta, basados en datos agregados y sin citas directas a los encuestados.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...