Diretrizes da Comissão Europeia para Definição de Sistemas de IA

Diretrizes da Comissão Europeia sobre a Definição de um “Sistema de IA”

Em fevereiro de 2025, a Comissão Europeia publicou dois conjuntos de diretrizes para esclarecer aspectos-chave da Lei de Inteligência Artificial da UE (“Lei de IA”): Diretrizes sobre a definição de um sistema de IA e Diretrizes sobre práticas de IA proibidas. Essas diretrizes têm como objetivo fornecer orientações sobre o conjunto de obrigações da Lei de IA que começaram a aplicar-se em 2 de fevereiro de 2025, o que inclui a seção de definições da Lei de IA, obrigações relacionadas à alfabetização em IA e proibições sobre certas práticas de IA.

Definindo um “Sistema de IA” sob a Lei de IA

A Lei de IA (Artigo 3(1)) define um “sistema de IA” como (1) um sistema baseado em máquina; (2) que é projetado para operar com diferentes níveis de autonomia; (3) que pode exibir adaptabilidade após a implantação; (4) e que, para objetivos explícitos ou implícitos; (5) infere, a partir da entrada que recebe, como gerar saídas; (6) como previsões, conteúdo, recomendações ou decisões; (7) que pode influenciar ambientes físicos ou virtuais. As Diretrizes de Definição do Sistema de IA fornecem orientações explicativas sobre cada um desses sete elementos.

Principais Conclusões das Diretrizes

  • Baseado em Máquina. O termo “baseado em máquina” refere-se ao fato de que os sistemas de IA são desenvolvidos e executados em máquinas, abrangendo uma ampla variedade de sistemas computacionais, incluindo sistemas emergentes de computação quântica. Vale ressaltar que “sistemas biológicos ou orgânicos” podem também ser considerados “baseados em máquina” se fornecerem capacidade computacional.
  • Autonomia. O conceito de “diferentes níveis de autonomia” refere-se à capacidade do sistema de operar com algum grau de independência da intervenção humana. Sistemas projetados para operar exclusivamente com total envolvimento manual humano estão, portanto, fora do escopo da definição de sistema de IA. Em contraste, um “sistema que requer entradas fornecidas manualmente para gerar uma saída por conta própria” qualificaria como tal, pois a saída é gerada sem ser “controlada ou especificada exatamente por um humano.”
  • Adaptabilidade. A adaptabilidade após a implantação refere-se às capacidades de autoaprendizado de um sistema, permitindo que seu comportamento mude enquanto está em uso. As diretrizes esclarecem que a adaptabilidade não é uma condição necessária para um sistema ser qualificado como um sistema de IA, pois a Lei de IA usa o termo “pode” em relação a esse elemento da definição.
  • Objetivos. Os objetivos são as metas explícitas ou implícitas da tarefa a ser realizada por esse sistema de IA. As diretrizes fazem uma distinção entre os “objetivos” de um sistema de IA, que são internos ao sistema, e seu “propósito pretendido”, que é externo ao sistema e depende do contexto de implantação.
  • Inferência e Técnicas de IA. A capacidade de inferir, a partir da entrada recebida, como gerar saídas é uma “condição chave e indispensável” dos sistemas de IA. As diretrizes explicam que o termo “inferir como” é amplo e não se limita à capacidade de um sistema de derivar saídas de entradas dadas; refere-se também à fase de construção de um sistema de IA, onde um sistema deriva saídas por meio de técnicas de IA que possibilitam a inferência.
  • Saídas. As saídas incluem quatro categorias amplas: (1) previsões, que são estimativas sobre um valor desconhecido a partir de um valor conhecido; (2) conteúdo, que se refere a material recém-gerado como texto ou imagens; (3) recomendações, que são sugestões para ações, produtos ou serviços específicos; e (4) decisões, que são conclusões ou escolhas feitas pelo sistema de IA.
  • Interação com o Ambiente. Interagir com o ambiente significa que o sistema de IA não é passivo, mas impacta ativamente o ambiente em que é implantado. Os ambientes impactados podem ser físicos ou virtuais.

As diretrizes também apontam para o Recital 12, que exclui da definição de sistema de IA “sistemas de software tradicionais mais simples ou abordagens de programação” e sistemas “baseados em regras definidas exclusivamente por pessoas naturais para executar operações automaticamente”. Exemplos incluem sistemas para melhorar a otimização matemática, processamento de dados básico, sistemas baseados em heurísticas clássicas e sistemas de previsão simples.

Embora alguns desses sistemas tenham a capacidade de inferir, eles não se enquadram no escopo da definição devido à sua capacidade limitada de analisar padrões e ajustar autonomamente suas saídas.

More Insights

Inteligência Artificial Responsável: Guia Prático para Desenvolvedores .NET

A era da Inteligência Artificial (IA) está acontecendo agora, com aplicações em setores como bancos e saúde. No entanto, é crucial garantir que os sistemas de IA sejam justos e confiáveis, e para...

A Nova Lei de Transparência em IA da Califórnia

Os legisladores da Califórnia fizeram história ao aprovar uma lei inovadora de transparência em IA focada nos "modelos de fronteira", os sistemas de inteligência artificial mais avançados em...

Quatro Pilares para Sistemas de IA Responsáveis

À medida que a IA generativa transforma a forma como as empresas operam, a implementação de sistemas de IA sem as devidas proteções pode levar a falhas dispendiosas. Os quatro pilares das guardrails...

IA Responsável: Inclusão em Mercados Emergentes

A inteligência artificial está transformando rapidamente o mundo, mas os benefícios não estão chegando a todos de maneira igual, especialmente nos mercados emergentes. Para garantir que a IA funcione...