Literacia em IA – Diretrizes para Construir Seu Programa
A obrigatoriedade de literacia em IA do Ato de IA da UE entrou em vigor em 2 de fevereiro de 2025. Esta obrigação se aplica a qualquer pessoa que faça uso de IA com alguma conexão à UE, abrangendo provedores e implementadores de qualquer sistema de IA.
Embora o Ato de IA não ofereça muitos detalhes sobre como a conformidade deve ser alcançada, o Escritório de IA da Comissão recentemente forneceu orientações na forma de Perguntas e Respostas, estabelecendo suas expectativas sobre a literacia em IA.
A Obrigatoriedade
Os provedores e implementadores de sistemas de IA devem “tomar medidas para garantir, na melhor medida possível, um nível suficiente de literacia em IA de seus funcionários e outras pessoas que lidam com a operação e uso de sistemas de IA em seu nome” (Artigo 4).
O considerando 20 resume a exigência como equipar as pessoas relevantes com “as noções necessárias” para tomar decisões informadas sobre sistemas de IA.
A definição também se refere a realizar uma implementação informada, além de adquirir consciência sobre as oportunidades e riscos da IA e os possíveis danos que ela pode causar.
Quem Precisa Ser Literato em IA?
Os provedores, implementadores e pessoas afetadas, bem como funcionários e outras pessoas que lidam com a operação e uso de sistemas de IA, necessitam de literacia em IA.
A Comissão confirma que isso inclui qualquer um sob o âmbito operacional do provedor/implementador, o que pode incluir contratantes, prestadores de serviços ou clientes.
Qual é um Nível “Suficiente” de Literacia em IA?
A Comissão não imporá requisitos rigorosos (ou específicos), uma vez que isso é específico ao contexto.
As organizações precisam adaptar sua abordagem. Por exemplo, organizações que utilizam sistemas de IA de alto risco podem precisar de “medidas adicionais” para garantir que os funcionários compreendam esses riscos e, em qualquer caso, deverão cumprir sua obrigação do Artigo 26 de garantir que os funcionários que lidam com sistemas de IA sejam suficientemente treinados para manejar o sistema de IA e garantir a supervisão humana.
Mesmo aqueles que utilizam IA generativa devem receber treinamento sobre os riscos relevantes, como alucinações.
A Comissão não planeja fornecer orientações setoriais específicas, embora o contexto em que o sistema de IA é fornecido ou implementado seja relevante.
Para aqueles que já possuem um profundo conhecimento técnico, o treinamento em literacia em IA ainda pode ser relevante, pois a organização deve considerar se eles compreendem os riscos e como evitá-los ou mitigá-los, bem como outros conhecimentos relevantes, como os aspectos legais e éticos da IA.
A Comissão aponta para seu repositório vivo de literacia em IA como uma possível fonte de inspiração.
Há uma Isenção “Humano no Loop”?
Não, na verdade, a literacia em IA é mais importante para os humanos no loop. Para fornecer uma supervisão genuína, eles precisam entender os sistemas de IA que estão supervisionando.
Quais são as Consequências da Não Conformidade?
A aplicação será feita por autoridades de vigilância do mercado e pode começar em 2 de agosto de 2026, quando as disposições sobre seus poderes de aplicação entrarem em vigor.
A Comissão inclui uma pergunta sobre se penalidades poderiam ser impostas pela não conformidade a partir de 2 de fevereiro de 2025, quando a aplicação começa, mas não fornece uma resposta, afirmando apenas que haverá cooperação com o Conselho de IA e todas as autoridades relevantes para garantir a aplicação coerente das regras.
Os detalhes sobre como a aplicação será realizada ainda estão por vir. O Ato de IA não prevê multas específicas para não conformidade com a obrigação de literacia em IA. Em seu webinar sobre o Pacto de IA em 20 de fevereiro de 2025, a Comissão destacou que, embora o Artigo 99 do Ato de IA estabeleça penalidades máximas em outras áreas, isso não impede que os estados membros incluam penalidades específicas para a não conformidade com a obrigação de literacia em IA em suas legislações nacionais. A Comissão também destacou que a literacia em IA provavelmente será considerada após a violação de outra obrigação sob o Ato de IA.
A Comissão menciona a possibilidade de aplicação privada, e indivíduos processando por danos – mas também reconhece que o Ato de IA não cria um direito à compensação.
Nossa Análise
A Comissão não fornece muitos detalhes sobre como os programas de literacia em IA devem ser estruturados, mas, em última análise, como destaca, o que é “suficiente” será pessoal a cada organização.
Para moldar um programa de literacia em IA, será necessário trabalhar primeiro com:
- Quem são os diferentes interessados envolvidos no uso de IA? Isso deve abranger todos – aqueles envolvidos na governança de IA, desenvolvedores, qualquer pessoa envolvida no uso de IA, prestadores de serviços, clientes e pessoas afetadas.
- O que cada grupo já sabe e o que cada grupo precisa saber? Por exemplo, membros do comitê de governança de IA podem precisar de uma compreensão mais profunda de como a IA funciona. Cientistas de dados podem precisar focar em questões legais e éticas. Para funcionários que fazem uso ocasional de IA generativa, uma sessão mais curta sobre os riscos e como a organização os gerencia pode ser apropriada.
- Qual meio seria mais apropriado? Por exemplo, um formato de workshop pode funcionar bem para membros do comitê de governança de IA ou cientistas de dados, enquanto um e-learning pode ser suficiente para funcionários que fazem uso ocasional de IA generativa.
- Quando o treinamento será realizado? Como mencionado, a obrigação já se aplica.
- Como iremos rastrear a participação e garantir que a conclusão seja suficientemente alta?
A orientação da Comissão trata da obrigação específica de literacia em IA sob o Ato de IA. No entanto, a literacia em IA é crucial para todas as organizações que utilizam IA, independentemente de o Ato de IA se aplicar. A literacia em IA é essencial para construir um forte programa de governança de IA, equipado para gerenciar a gama de riscos legais e organizacionais que acompanham o uso da IA.