Consulta sobre la clasificación de sistemas de IA de alto riesgo

Consulta a Partes Interesadas sobre la Clasificación de Sistemas de IA como de Alto Riesgo

La consulta está dirigida a partes interesadas de diversas categorías, incluyendo proveedores y desplegadores de sistemas de IA (de alto riesgo), organizaciones industriales, academia, expertos independientes, organizaciones de la sociedad civil y autoridades públicas.

Marco Legal: La Ley de Inteligencia Artificial

La Ley de Inteligencia Artificial (la ‘Ley de IA’), que entró en vigor el 1 de agosto de 2024, establece un mercado único y normas armonizadas para una inteligencia artificial confiable y centrada en el ser humano en la UE. Su objetivo es promover la innovación y la adopción de la IA, garantizando al mismo tiempo un alto nivel de protección de la salud, la seguridad y los derechos fundamentales, incluyendo la democracia y el estado de derecho.

La Ley de IA adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en diferentes categorías de riesgo, siendo los sistemas de IA de alto riesgo uno de ellos (Capítulo III de la Ley de IA). Las obligaciones relevantes para estos sistemas serán aplicables dos años después de la entrada en vigor de la Ley, a partir del 2 de agosto de 2026.

Categorías de Sistemas de IA de Alto Riesgo

La Ley de IA distingue entre dos categorías de sistemas de IA considerados como de alto riesgo, establecidas en los Artículos 6(1) y 6(2) de la Ley de IA. El Artículo 6(1) abarca los sistemas de IA que se integran como componentes de seguridad en productos o que son productos cubiertos por la legislación de la Unión en el Anexo I, que podrían tener un impacto adverso en la salud y la seguridad de las personas. El Artículo 6(2) cubre sistemas de IA que, según su propósito previsto, se consideran que representan un riesgo significativo para la salud, la seguridad o los derechos fundamentales.

Obligaciones para Proveedores y Desplegadores

Los sistemas de IA que se clasifican como de alto riesgo deben ser desarrollados y diseñados para cumplir con los requisitos establecidos en el Capítulo III Sección 2, en relación con la gobernanza de datos, documentación, transparencia y provisión de información a los usuarios, supervisión humana, robustez, precisión y seguridad. Los proveedores de sistemas de IA de alto riesgo deben garantizar que su sistema cumpla con estos requisitos y deben cumplir con diversas obligaciones establecidas en el Capítulo III Sección 3, incluyendo la obligación de implementar un sistema de gestión de calidad y asegurar que el sistema de IA de alto riesgo se someta a una evaluación de conformidad antes de su comercialización o puesta en servicio.

La Ley de IA también establece obligaciones para los desplegadores de sistemas de IA de alto riesgo, relacionadas con el uso correcto, supervisión humana y monitoreo del funcionamiento del sistema de IA, así como, en ciertos casos, la transparencia hacia las personas afectadas.

Guías y Ejemplos Prácticos

De acuerdo con el Artículo 6(5) de la Ley de IA, la Comisión está obligada a proporcionar guías que especifiquen la implementación práctica del Artículo 6, que establece las normas para la clasificación de alto riesgo, antes del 2 de febrero de 2026. Además, estas guías deben ir acompañadas de una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que son de alto riesgo y no de alto riesgo.

La consulta tiene como propósito recopilar aportes de las partes interesadas sobre ejemplos prácticos de sistemas de IA y cuestiones que necesitan ser aclaradas en las guías de la Comisión sobre la clasificación de sistemas de IA de alto riesgo y futuras directrices sobre requisitos y obligaciones de alto riesgo.

Dado que no todas las preguntas pueden ser relevantes para todos los interesados, se invita a los encuestados a responder solo a las secciones y preguntas que deseen. Se alienta a los participantes a proporcionar explicaciones y casos prácticos como parte de sus respuestas para apoyar la utilidad práctica de las guías.

Estructura del Cuestionario

El cuestionario para esta consulta está estructurado en 5 secciones, con varias preguntas. Las secciones 1 y 2 solicitan respuestas según las partes de la encuesta en las que los encuestados expresaron interés. Se requiere que todos los participantes proporcionen aportes para las secciones 3, 4 y 5.

  • Sección 1: Preguntas sobre las normas de clasificación de sistemas de IA de alto riesgo en el Artículo 6(1) y el Anexo I de la Ley de IA.
  • Sección 2: Preguntas sobre la clasificación de sistemas de IA de alto riesgo en el Artículo 6(2) y el Anexo III de la Ley de IA.
  • Sección 3: Preguntas generales sobre la clasificación de alto riesgo.
  • Sección 4: Preguntas relacionadas con los requisitos y obligaciones para sistemas de IA de alto riesgo.
  • Sección 5: Preguntas sobre la necesidad de enmienda de la lista de casos de uso de alto riesgo en el Anexo III y de prácticas prohibidas.

Todas las contribuciones a esta consulta pueden ser divulgadas públicamente. Por lo tanto, se recomienda no compartir información confidencial. Los individuos pueden solicitar que su contribución sea anonimizada. Los datos personales serán anonimizados.

La Oficina de IA publicará un resumen de los resultados de la consulta, basados en datos agregados y sin citas directas a los encuestados.

More Insights

La Ley de IA de Colorado: Un Nuevo Estándar para la Regulación

La reciente fallida propuesta de miembros del Congreso para congelar las leyes de inteligencia artificial a nivel estatal ha dejado a las empresas de EE. UU. con operaciones nacionales enfrentándose a...

Plan de Acción de IA para Fortalecer la Ética en Malaysia

El próximo Plan de Acción de Tecnología de IA 2026–2030 de Malasia reforzará las salvaguardias éticas y los marcos de gobernanza en el uso de la inteligencia artificial, anunció el Ministro Digital...

Estrategias Simultáneas para una Gobernanza Efectiva de la IA

El desarrollo de políticas de inteligencia artificial (IA) responsables y estrategias generales de IA debe ocurrir simultáneamente para garantizar su efectividad. El enfoque distintivo de Bután...

Directrices para AI con Riesgos Sistémicos en la UE

La Comisión Europea estableció pautas para ayudar a los modelos de IA que se consideran de riesgo sistémico a cumplir con la regulación de inteligencia artificial de la Unión Europea. Estas...

Kerala: Pionero en IA Ética y Educación

Kerala se está convirtiendo en un referente global en la implementación ética de la inteligencia artificial (IA), especialmente en el ámbito educativo y los servicios públicos. Su enfoque combina la...

Los Estados se Adelantan en la Regulación del Desarrollo de IA en EE. UU.

Los estados de EE. UU. están comenzando a establecer sus propias regulaciones sobre el desarrollo de inteligencia artificial, tras la eliminación de una prohibición que impedía a los estados promulgar...

Cumplimiento impulsado por IA: potencial y riesgos

La inteligencia artificial en el cumplimiento está revolucionando las operaciones diarias de muchas organizaciones, mejorando la detección de fraudes y automatizando tareas intensivas en recursos. Sin...

La UE Acelera la Censura de Conservadores con Regulación de IA

La nueva normativa de la UE sobre estándares de "seguridad y protección" requerirá que las empresas tecnológicas censuren y moderen el contenido en modelos de inteligencia artificial de propósito...