Consulta direcionada a partes interessadas sobre a classificação de sistemas de IA como de alto risco
A consulta em foco é direcionada a partes interessadas de diferentes categorias, incluindo provedores e implementadores de sistemas de IA (inteligência artificial) de alto risco, organizações da indústria, academia, especialistas independentes, organizações da sociedade civil e autoridades públicas.
O Ato de Inteligência Artificial (o “AI Act”), que entrou em vigor em 1º de agosto de 2024, estabelece um mercado único e regras harmonizadas para uma IA confiável e centrada no ser humano na União Europeia. O objetivo é promover a inovação e a adoção de IA, garantindo ao mesmo tempo um alto nível de proteção à saúde, segurança e direitos fundamentais, incluindo a democracia e o estado de direito.
O AI Act adota uma abordagem baseada em riscos, classificando os sistemas de IA em diferentes categorias de risco, sendo uma delas os sistemas de IA de alto risco (Capítulo III do AI Act). As obrigações relevantes para esses sistemas serão aplicáveis dois anos após a entrada em vigor do AI Act, a partir de 2 de agosto de 2026.
Classificação de Sistemas de IA de Alto Risco
O AI Act distingue entre duas categorias de sistemas de IA considerados “de alto risco”, conforme estabelecido nos Artigos 6(1) e 6(2) do AI Act. O Artigo 6(1) abrange sistemas de IA que são componentes de segurança incorporados em produtos ou que são produtos cobertos pela legislação da União, listados no Anexo I, que podem ter um impacto adverso na saúde e segurança das pessoas. O Artigo 6(2) abrange sistemas de IA que, em vista de seu propósito pretendido, são considerados como apresentando um risco significativo à saúde, segurança ou direitos fundamentais.
O AI Act lista oito áreas nas quais os sistemas de IA podem representar um risco significativo à saúde, segurança ou direitos fundamentais no Anexo III e, dentro de cada área, lista casos de uso específicos que devem ser classificados como de alto risco. O Artigo 6(3) prevê isenções para sistemas de IA destinados a ser usados para um dos casos listados no Anexo III, mas que não apresentam risco significativo, pois se enquadram em uma das exceções listadas no Artigo 6(3).
Requisitos e Obrigações para Sistemas de IA de Alto Risco
Os sistemas de IA classificados como de alto risco devem ser desenvolvidos e projetados para atender aos requisitos estabelecidos no Capítulo III Seção 2, em relação a dados e governança de dados, documentação e registro, transparência e fornecimento de informações aos usuários, supervisão humana, robustez, precisão e segurança. Os provedores de sistemas de IA de alto risco devem garantir que seu sistema esteja em conformidade com esses requisitos e devem cumprir várias obrigações estabelecidas na Seção 3 do Capítulo III, notavelmente a obrigação de implementar um sistema de gestão da qualidade e garantir que o sistema de IA de alto risco passe por uma avaliação de conformidade antes de ser colocado no mercado ou colocado em serviço.
O AI Act também estabelece obrigações para os implementadores de sistemas de IA de alto risco, relacionadas ao uso correto, supervisão humana, monitoramento da operação do sistema de IA de alto risco e, em certos casos, à transparência em relação às pessoas afetadas.
Diretrizes e Consultas
De acordo com o Artigo 6(5) do AI Act, a Comissão é obrigada a fornecer diretrizes que especifiquem a implementação prática do Artigo 6, que estabelece as regras para a classificação de alto risco, até 2 de fevereiro de 2026. Essas diretrizes devem ser acompanhadas de uma lista abrangente de exemplos práticos de casos de uso de sistemas de IA que são considerados de alto risco e não de alto risco.
Além disso, conforme o Artigo 96(1)(a) do AI Act, a Comissão deve desenvolver diretrizes sobre a aplicação prática dos requisitos para sistemas de IA de alto risco e obrigações para os operadores, incluindo as responsabilidades ao longo da cadeia de valor da IA estabelecidas no Artigo 25.
O objetivo da presente consulta direcionada é coletar contribuições das partes interessadas sobre exemplos práticos de sistemas de IA e questões a serem esclarecidas nas diretrizes da Comissão sobre a classificação de sistemas de IA de alto risco e futuras diretrizes sobre requisitos e obrigações de alto risco, bem como responsabilidades ao longo da cadeia de valor da IA.
Como nem todas as perguntas podem ser relevantes para todas as partes interessadas, os respondentes podem responder apenas às seções e perguntas que desejarem. Os respondentes são incentivados a fornecer explicações e casos práticos como parte de suas respostas para apoiar a utilidade prática das diretrizes.
A consulta estará disponível apenas em inglês e será aberta por 6 semanas, começando em 6 de junho até 18 de julho de 2025.
O questionário para esta consulta está estruturado em 5 seções com várias perguntas.
Seções do Questionário
Seção 1: Perguntas relacionadas às regras de classificação de sistemas de IA de alto risco nos Artigos 6(1) e Anexo I do AI Act.
Seção 2: Perguntas sobre a classificação de sistemas de IA de alto risco nos Artigos 6(2) e Anexo III do AI Act.
Seção 3: Perguntas gerais sobre a classificação de alto risco.
Seção 4: Perguntas sobre requisitos e obrigações para sistemas de IA de alto risco e obrigações na cadeia de valor.
Seção 5: Perguntas sobre a necessidade de emenda da lista de casos de uso de alto risco no Anexo III e práticas de IA proibidas conforme estabelecido no Artigo 5.
Todas as contribuições a esta consulta poderão ser tornadas públicas. Portanto, não compartilhe informações confidenciais em sua contribuição. Os indivíduos podem solicitar que suas contribuições sejam anonimizadas. Os dados pessoais serão anonimizados.
A AI Office