Novas Regras de IA na Índia: Temor de Censura Excessiva
As novas regras de IA da Índia exigem que plataformas removam conteúdos sinalizados em poucas horas, levantando preocupações sobre supercensura e riscos ao devido processo.
As novas regras de IA da Índia exigem que plataformas removam conteúdos sinalizados em poucas horas, levantando preocupações sobre supercensura e riscos ao devido processo.
Deputados apontam que a falta de recursos é o maior obstáculo para a regulamentação da inteligência artificial no Reino Unido, destacando a necessidade de maior cooperação entre reguladores e aumento de financiamento para proteger os direitos humanos.
As novas regras de TI da Índia introduzem mudanças significativas para plataformas de mídia social, definindo pela primeira vez o que é “informação gerada sinteticamente” e reduzindo o prazo para remoção de conteúdo ilegal para três horas. Além disso, ampliam as obrigações dos intermediários, permitindo a identificação de usuários que violam as regras de anonimato em casos de conteúdo prejudicial.
O Ministério da Eletrônica e Tecnologia da Informação (MeitY) implementou um novo quadro de conformidade mais rigoroso para conteúdo gerado por inteligência artificial nas redes sociais, visando combater desinformação e difamação. As plataformas devem garantir que os usuários declarem claramente quando o conteúdo é gerado por IA e agir rapidamente em casos de conteúdo enganoso.
A Veritone, Inc. está estrategicamente posicionada para atender à crescente economia dos agentes de IA, funcionando como a camada de orquestração que conecta modelos de IA e gerencia dados não estruturados. Sua plataforma aiWARE™ e o Veritone Data Refinery (VDR) são essenciais para garantir governança e proveniência dos dados, permitindo que os agentes atuem em nome das organizações.
O Ato de IA da UE é o primeiro marco regulatório abrangente para inteligência artificial, impondo obrigações em toda a cadeia de suprimentos de IA. Embora seja uma lei da UE, tem efeitos extraterritoriais significativos, afetando empresas do Reino Unido que usam ou fornecem sistemas de IA.
O projeto de lei CLEAR, introduzido pelos senadores Adam Schiff e John Curtis, estabelece requisitos obrigatórios para que empresas que desenvolvem modelos de inteligência artificial treinados com obras protegidas por direitos autorais realizem notificações. Se aprovado, permitirá que os proprietários de direitos autorais processem desenvolvedores que não cumprirem essas exigências.
Uma equipe de pesquisa da Microsoft descobriu uma vulnerabilidade preocupante em modelos de linguagem de IA: as proteções de segurança podem ser desmanteladas usando um único prompt. O ataque explora a metodologia de treinamento usada para tornar os sistemas de IA mais seguros, mas a executa de forma inversa.
À medida que os sistemas de inteligência artificial se tornam mais integrados à vida cotidiana, formuladores de políticas intensificam esforços para proteger crianças de danos digitais, avaliando se as tecnologias são projetadas de forma a não onerar injustamente os jovens usuários.
Quando um currículo é filtrado, um empréstimo é negado ou um conteúdo não chega ao seu público, a inteligência artificial pode ser a mão invisível por trás do resultado. A discussão enfatiza que os sistemas de IA devem permanecer sob controle humano significativo, especialmente em áreas críticas como segurança, governança e contratação.