Introdução
Recentes negociações sobre um pacote abrangente de propostas regulatórias para sistemas de IA de alto risco chegaram a um impasse, gerando incertezas sobre os prazos de aplicação e as exigências de conformidade.
Análise principal
O debate central gira em torno da data de início da aplicação de requisitos para sistemas de IA de alto risco, inicialmente prevista para 2 de agosto de 2026. Há discussões sobre possíveis extensões até dezembro de 2027 para certos sistemas autônomos e até agosto de 2028 para IA incorporada em produtos regulados.
Um ponto crítico é a intersecção entre as regras digitais existentes e as novas exigências, especialmente para produtos já cobertos por legislações setoriais, como dispositivos médicos e máquinas industriais. A proposta de isenção desses produtos da nova normativa tem sido contestada, pois poderia criar sobreposições ou lacunas regulatórias.
Além disso, há preocupação quanto ao impacto nas normas técnicas, já que mudanças significativas poderiam invalidar trabalhos de padronização em andamento.
Implicações e riscos
Manter o prazo de 2 de agosto de 2026 implica que as organizações devem se preparar imediatamente para requisitos de transparência, como a rotulagem de conteúdo gerado por IA e a disponibilização de informações legíveis por máquinas.
Uma eventual extensão dos prazos pode oferecer mais tempo para adaptação, porém também pode gerar incerteza estratégica, dificultando o planejamento de investimentos e desenvolvimento de conformidade.
Conclusão
Até que novas negociações concluam ajustes, o cenário permanece de manutenção do status quo, com a aplicação das exigências previstas para 2026. As partes interessadas devem monitorar as próximas discussões e preparar-se para atender aos requisitos de transparência e marcação de conteúdo de IA, independentemente de possíveis alterações nos prazos.