Consulta sobre la clasificación de sistemas de IA de alto riesgo

Consulta a Partes Interesadas sobre la Clasificación de Sistemas de IA como de Alto Riesgo

La consulta está dirigida a partes interesadas de diversas categorías, incluyendo proveedores y desplegadores de sistemas de IA (de alto riesgo), organizaciones industriales, academia, expertos independientes, organizaciones de la sociedad civil y autoridades públicas.

Marco Legal: La Ley de Inteligencia Artificial

La Ley de Inteligencia Artificial (la ‘Ley de IA’), que entró en vigor el 1 de agosto de 2024, establece un mercado único y normas armonizadas para una inteligencia artificial confiable y centrada en el ser humano en la UE. Su objetivo es promover la innovación y la adopción de la IA, garantizando al mismo tiempo un alto nivel de protección de la salud, la seguridad y los derechos fundamentales, incluyendo la democracia y el estado de derecho.

La Ley de IA adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en diferentes categorías de riesgo, siendo los sistemas de IA de alto riesgo uno de ellos (Capítulo III de la Ley de IA). Las obligaciones relevantes para estos sistemas serán aplicables dos años después de la entrada en vigor de la Ley, a partir del 2 de agosto de 2026.

Categorías de Sistemas de IA de Alto Riesgo

La Ley de IA distingue entre dos categorías de sistemas de IA considerados como de alto riesgo, establecidas en los Artículos 6(1) y 6(2) de la Ley de IA. El Artículo 6(1) abarca los sistemas de IA que se integran como componentes de seguridad en productos o que son productos cubiertos por la legislación de la Unión en el Anexo I, que podrían tener un impacto adverso en la salud y la seguridad de las personas. El Artículo 6(2) cubre sistemas de IA que, según su propósito previsto, se consideran que representan un riesgo significativo para la salud, la seguridad o los derechos fundamentales.

Obligaciones para Proveedores y Desplegadores

Los sistemas de IA que se clasifican como de alto riesgo deben ser desarrollados y diseñados para cumplir con los requisitos establecidos en el Capítulo III Sección 2, en relación con la gobernanza de datos, documentación, transparencia y provisión de información a los usuarios, supervisión humana, robustez, precisión y seguridad. Los proveedores de sistemas de IA de alto riesgo deben garantizar que su sistema cumpla con estos requisitos y deben cumplir con diversas obligaciones establecidas en el Capítulo III Sección 3, incluyendo la obligación de implementar un sistema de gestión de calidad y asegurar que el sistema de IA de alto riesgo se someta a una evaluación de conformidad antes de su comercialización o puesta en servicio.

La Ley de IA también establece obligaciones para los desplegadores de sistemas de IA de alto riesgo, relacionadas con el uso correcto, supervisión humana y monitoreo del funcionamiento del sistema de IA, así como, en ciertos casos, la transparencia hacia las personas afectadas.

Guías y Ejemplos Prácticos

De acuerdo con el Artículo 6(5) de la Ley de IA, la Comisión está obligada a proporcionar guías que especifiquen la implementación práctica del Artículo 6, que establece las normas para la clasificación de alto riesgo, antes del 2 de febrero de 2026. Además, estas guías deben ir acompañadas de una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que son de alto riesgo y no de alto riesgo.

La consulta tiene como propósito recopilar aportes de las partes interesadas sobre ejemplos prácticos de sistemas de IA y cuestiones que necesitan ser aclaradas en las guías de la Comisión sobre la clasificación de sistemas de IA de alto riesgo y futuras directrices sobre requisitos y obligaciones de alto riesgo.

Dado que no todas las preguntas pueden ser relevantes para todos los interesados, se invita a los encuestados a responder solo a las secciones y preguntas que deseen. Se alienta a los participantes a proporcionar explicaciones y casos prácticos como parte de sus respuestas para apoyar la utilidad práctica de las guías.

Estructura del Cuestionario

El cuestionario para esta consulta está estructurado en 5 secciones, con varias preguntas. Las secciones 1 y 2 solicitan respuestas según las partes de la encuesta en las que los encuestados expresaron interés. Se requiere que todos los participantes proporcionen aportes para las secciones 3, 4 y 5.

  • Sección 1: Preguntas sobre las normas de clasificación de sistemas de IA de alto riesgo en el Artículo 6(1) y el Anexo I de la Ley de IA.
  • Sección 2: Preguntas sobre la clasificación de sistemas de IA de alto riesgo en el Artículo 6(2) y el Anexo III de la Ley de IA.
  • Sección 3: Preguntas generales sobre la clasificación de alto riesgo.
  • Sección 4: Preguntas relacionadas con los requisitos y obligaciones para sistemas de IA de alto riesgo.
  • Sección 5: Preguntas sobre la necesidad de enmienda de la lista de casos de uso de alto riesgo en el Anexo III y de prácticas prohibidas.

Todas las contribuciones a esta consulta pueden ser divulgadas públicamente. Por lo tanto, se recomienda no compartir información confidencial. Los individuos pueden solicitar que su contribución sea anonimizada. Los datos personales serán anonimizados.

La Oficina de IA publicará un resumen de los resultados de la consulta, basados en datos agregados y sin citas directas a los encuestados.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...