Regulação de IA: Diretrizes da UE para Modelos de IA com Riscos Sistêmicos
No contexto atual de crescente preocupação com a inteligência artificial (IA), a Comissão Europeia lançou diretrizes para auxiliar modelos de IA identificados como apresentando riscos sistêmicos a conformarem-se com a regulamentação da União Europeia sobre IA, conhecida como AI Act.
Contexto e Importância das Diretrizes
Este movimento visa responder às críticas de algumas empresas sobre o AI Act e o ônus regulatório, ao mesmo tempo em que proporciona maior clareza para as empresas que enfrentam penalidades significativas por violações. As multas podem variar entre 7,5 milhões de euros (cerca de 8,7 milhões de dólares) e 35 milhões de euros ou até 7% do faturamento global.
Obrigações para Modelos de IA com Riscos Sistêmicos
A partir de 2 de agosto, os modelos de IA com riscos sistêmicos e os modelos de fundação, como os criados por empresas como Google, OpenAI e Meta, terão obrigações mais rigorosas. As diretrizes exigem que as empresas realizem avaliações, analisem riscos, conduzam testes adversariais, relatem incidentes graves e garantam medidas de cibersegurança para proteger contra o uso indevido.
Definição de Modelos de IA com Riscos Sistêmicos
A Comissão define modelos de IA com riscos sistêmicos como aqueles com capacidades computacionais muito avançadas, que podem ter um impacto significativo na saúde pública, segurança, direitos fundamentais ou na sociedade.
Exigências Adicionais para Modelos de Fundação
Os modelos de IA de uso geral ou modelos de fundação estarão sujeitos a requisitos de transparência, como a elaboração de documentação técnica, adoção de políticas de direitos autorais e fornecimento de resumos detalhados sobre o conteúdo usado para o treinamento de algoritmos.
Conclusão
Com as diretrizes apresentadas, a Comissão Europeia busca apoiar a aplicação tranquila e eficaz do AI Act. Este conjunto de regras e obrigações representa um passo significativo na regulação da inteligência artificial na Europa, visando garantir que as inovações em IA sejam realizadas de maneira responsável e segura.