AI: ‘As escolas devem agir agora sobre deepfakes e chatbots de terapia’
Empresas de IA encontraram-se nos tribunais diversas vezes, incluindo casos movidos por pais que alegam que essas ferramentas contribuíram para o suicídio de seus filhos adolescentes.
Apesar desses processos, as empresas de IA continuam avançando sob o mantra de dar às pessoas o que elas querem. Isso levou a desenvolvimentos como o recurso “Cameo” do ChatGPT, onde os usuários podem adicionar a imagem digital de uma pessoa em cenas artificiais, e o Grok de Elon Musk, que é capaz de gerar imagens e vídeos explícitos e altamente realistas.
Governos ao redor do mundo agora estão se apressando para entender e regulamentar as implicações dessas ferramentas.
A urgência nas escolas
As escolas não podem se dar ao luxo de esperar. Acredito que a IA, quando utilizada de forma sensata, tem um enorme potencial para apoiar e aprimorar a aprendizagem. No entanto, é precisamente por causa dessa crença que sinto uma enorme pressão para destacar a seriedade dos novos riscos à segurança que essas tecnologias criam.
Em minha escola, estamos lutando para educar nossas crianças sobre duas preocupações específicas que surgiram rapidamente. Uma maneira que fizemos isso foi através de um vídeo que os colegas podem usar.
Deepfakes: um crime onde todos se tornam vítimas
A capacidade de criar imagens e vídeos falsos não é nova. O que é novo é a facilidade e a rapidez com que isso pode ser feito. Crianças sem habilidades técnicas e sem software caro podem criar vídeos falsos, porém completamente realistas, de celebridades fazendo comentários racistas ou fazendo coisas ridículas com apenas um botão.
Não se deve esperar que empresas de IA motivadas pelo lucro se policiem. Embora as empresas de IA ainda estejam lutando nos tribunais pela legalidade, a decisão já foi tomada para nossos alunos. As redes sociais transformaram isso em entretenimento, algo para ser rido e compartilhado entre amigos. Mas não é divertido para a vítima.
Governos ao redor do mundo estão agora se movendo para fazer cumprir leis existentes e introduzir novas para proteger as vítimas e prevenir a disseminação de tal material. No entanto, as crianças em nossas escolas não estão ouvindo sobre isso.
O que é pior é que, mesmo que ouçam, seus cérebros ainda em desenvolvimento as fazem reagir rapidamente e pensar lentamente nas consequências. A capacidade de criar e espalhar material ilegal e profundamente prejudicial de um quarto em segundos é, portanto, desastrosa. O que muitos adultos não percebem, e quase nenhum adolescente percebe, é que ressharear deepfakes também pode ser um crime.
Chatbots como terapeutas
Dois anos atrás, muitos professores riram da ideia de que as pessoas recorreriam a chatbots de IA para abordar questões de saúde mental. Alguns ainda riem, mas estão errados. Um estudo da Mental Health UK agora relata que um em cada três adultos usou chatbots para apoiar sua saúde mental, e o número é quase certamente maior entre os adolescentes. Uma ferramenta que está disponível 24 horas por dia, sempre paciente e infalivelmente simpática, é reconfortante.
Para adolescentes vulneráveis, no entanto, isso já se tornou perigoso. A IA faz muitas coisas, mas não pode agir. Quando fui treinado como professor, me ensinaram que a primeira regra de proteção é nunca guardar preocupações para si mesmo. Relate e acompanhe. Isso é exatamente o que os chatbots de IA não fazem e não podem fazer. Para que eles relatem automaticamente divulgações de proteção, isso criaria sérios problemas de segurança de dados e vigilância para as empresas que os operam. Portanto, permanecem em silêncio. Mantêm o segredo.
Quando as crianças param de falar com humanos, param de ser protegidas. Em 2026, crianças ao redor do mundo estarão recorrendo muito menos àqueles que se importam com elas para obter ajuda. Muitas não falarão mais com seus pais, seu professor favorito ou o responsável pela proteção na escola. Em vez disso, confiarão cada vez mais em chatbots; chatbots que apenas simulam cuidado e preocupação.
A resposta que as escolas devem dar
Não olhe para os governos. Não espere que empresas de IA motivadas pelo lucro se policiem. Não espere por relatórios e estudos. A tecnologia está simplesmente avançando rápido demais.
Converse com seus alunos. Aumente a conscientização deles. Tente equilibrar as narrativas que eles encontram todos os dias nas redes sociais.
Atualizar uma política de proteção não é suficiente. A mensagem deve ser transmitida. Em nossa escola, criamos vídeos impactantes e voltados para os alunos, mudamos nossas aulas de PSHE, realizamos assembleias escolares e convidamos os pais para reuniões.
Caso contrário, as crianças se tornam tanto o caso de teste quanto o bode expiatório pelas falhas no julgamento dos adultos.