Consulta a Partes Interesadas sobre la Clasificación de Sistemas de IA como de Alto Riesgo
La consulta está dirigida a partes interesadas de diversas categorías, incluyendo proveedores y desplegadores de sistemas de IA (de alto riesgo), organizaciones industriales, academia, expertos independientes, organizaciones de la sociedad civil y autoridades públicas.
Marco Legal: La Ley de Inteligencia Artificial
La Ley de Inteligencia Artificial (la ‘Ley de IA’), que entró en vigor el 1 de agosto de 2024, establece un mercado único y normas armonizadas para una inteligencia artificial confiable y centrada en el ser humano en la UE. Su objetivo es promover la innovación y la adopción de la IA, garantizando al mismo tiempo un alto nivel de protección de la salud, la seguridad y los derechos fundamentales, incluyendo la democracia y el estado de derecho.
La Ley de IA adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en diferentes categorías de riesgo, siendo los sistemas de IA de alto riesgo uno de ellos (Capítulo III de la Ley de IA). Las obligaciones relevantes para estos sistemas serán aplicables dos años después de la entrada en vigor de la Ley, a partir del 2 de agosto de 2026.
Categorías de Sistemas de IA de Alto Riesgo
La Ley de IA distingue entre dos categorías de sistemas de IA considerados como de alto riesgo, establecidas en los Artículos 6(1) y 6(2) de la Ley de IA. El Artículo 6(1) abarca los sistemas de IA que se integran como componentes de seguridad en productos o que son productos cubiertos por la legislación de la Unión en el Anexo I, que podrían tener un impacto adverso en la salud y la seguridad de las personas. El Artículo 6(2) cubre sistemas de IA que, según su propósito previsto, se consideran que representan un riesgo significativo para la salud, la seguridad o los derechos fundamentales.
Obligaciones para Proveedores y Desplegadores
Los sistemas de IA que se clasifican como de alto riesgo deben ser desarrollados y diseñados para cumplir con los requisitos establecidos en el Capítulo III Sección 2, en relación con la gobernanza de datos, documentación, transparencia y provisión de información a los usuarios, supervisión humana, robustez, precisión y seguridad. Los proveedores de sistemas de IA de alto riesgo deben garantizar que su sistema cumpla con estos requisitos y deben cumplir con diversas obligaciones establecidas en el Capítulo III Sección 3, incluyendo la obligación de implementar un sistema de gestión de calidad y asegurar que el sistema de IA de alto riesgo se someta a una evaluación de conformidad antes de su comercialización o puesta en servicio.
La Ley de IA también establece obligaciones para los desplegadores de sistemas de IA de alto riesgo, relacionadas con el uso correcto, supervisión humana y monitoreo del funcionamiento del sistema de IA, así como, en ciertos casos, la transparencia hacia las personas afectadas.
Guías y Ejemplos Prácticos
De acuerdo con el Artículo 6(5) de la Ley de IA, la Comisión está obligada a proporcionar guías que especifiquen la implementación práctica del Artículo 6, que establece las normas para la clasificación de alto riesgo, antes del 2 de febrero de 2026. Además, estas guías deben ir acompañadas de una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que son de alto riesgo y no de alto riesgo.
La consulta tiene como propósito recopilar aportes de las partes interesadas sobre ejemplos prácticos de sistemas de IA y cuestiones que necesitan ser aclaradas en las guías de la Comisión sobre la clasificación de sistemas de IA de alto riesgo y futuras directrices sobre requisitos y obligaciones de alto riesgo.
Dado que no todas las preguntas pueden ser relevantes para todos los interesados, se invita a los encuestados a responder solo a las secciones y preguntas que deseen. Se alienta a los participantes a proporcionar explicaciones y casos prácticos como parte de sus respuestas para apoyar la utilidad práctica de las guías.
Estructura del Cuestionario
El cuestionario para esta consulta está estructurado en 5 secciones, con varias preguntas. Las secciones 1 y 2 solicitan respuestas según las partes de la encuesta en las que los encuestados expresaron interés. Se requiere que todos los participantes proporcionen aportes para las secciones 3, 4 y 5.
- Sección 1: Preguntas sobre las normas de clasificación de sistemas de IA de alto riesgo en el Artículo 6(1) y el Anexo I de la Ley de IA.
- Sección 2: Preguntas sobre la clasificación de sistemas de IA de alto riesgo en el Artículo 6(2) y el Anexo III de la Ley de IA.
- Sección 3: Preguntas generales sobre la clasificación de alto riesgo.
- Sección 4: Preguntas relacionadas con los requisitos y obligaciones para sistemas de IA de alto riesgo.
- Sección 5: Preguntas sobre la necesidad de enmienda de la lista de casos de uso de alto riesgo en el Anexo III y de prácticas prohibidas.
Todas las contribuciones a esta consulta pueden ser divulgadas públicamente. Por lo tanto, se recomienda no compartir información confidencial. Los individuos pueden solicitar que su contribución sea anonimizada. Los datos personales serán anonimizados.
La Oficina de IA publicará un resumen de los resultados de la consulta, basados en datos agregados y sin citas directas a los encuestados.