AI: Las escuelas deben actuar ahora sobre los deepfakes y los chatbots terapéuticos
Las empresas de inteligencia artificial se han enfrentado a múltiples demandas, incluidos casos presentados por padres que alegan que estas herramientas contribuyeron al suicidio de sus hijos adolescentes.
A pesar de estos casos judiciales, las compañías de IA continúan avanzando bajo el mantra de «dar a las personas lo que quieren». Esto ha llevado a desarrollos como la función «Cameo» de ChatGPT, donde los usuarios pueden añadir el parecido digital de una persona en escenas artificiales, y Grok, que puede generar imágenes y videos explícitos y sumamente realistas.
Los gobiernos de todo el mundo ahora se apresuran a comprender y regular las implicaciones de estas herramientas. Sin embargo, las escuelas no pueden permitirse esperar.
La importancia de la transparencia
La IA, cuando se utiliza sensatamente, tiene un enorme potencial para apoyar y mejorar el aprendizaje. Puede fortalecer el pensamiento crítico y brindar apoyo individual a los estudiantes. Sin embargo, esta oportunidad también implica la necesidad de destacar la seriedad de los nuevos riesgos que generan estas tecnologías.
En las escuelas es fundamental educar a los niños sobre dos preocupaciones específicas que han surgido rápidamente: los deepfakes y los chatbots terapéuticos.
Deepfakes: un crimen donde todos son víctimas
La capacidad de crear imágenes y videos falsos no es nueva, pero la facilidad y rapidez con la que ahora puede hacerse es alarmante. Los niños, sin conocimientos técnicos ni software costoso, pueden crear videos realistas de celebridades haciendo comentarios racistas o realizando acciones ridículas con solo presionar un botón.
No se debe esperar que las empresas de IA, impulsadas por el lucro, se autorregulen. Mientras estas empresas luchan en los tribunales por su legalidad, ya se ha tomado una decisión respecto a nuestros estudiantes. Las redes sociales convirtieron esto en entretenimiento, algo para reír y compartir entre amigos, pero no es divertido para la víctima.
A nivel global, los gobiernos empiezan a aplicar leyes existentes y a introducir nuevas para proteger a las víctimas y prevenir la difusión de este tipo de material. A pesar de ello, los estudiantes no están siendo educados sobre estos riesgos. Es grave que, aunque los escuchen, su desarrollo cognitivo pueda llevarlos a actuar sin razonar las consecuencias. La capacidad de crear y difundir material ilegal y dañino desde una habitación en segundos es un desastre.
Chatbots como terapeutas
Hace dos años, muchos educadores consideraban ridículo que las personas recurrieran a chatbots de IA para tratar problemas de salud mental. Sin embargo, un estudio reciente indica que uno de cada tres adultos ha utilizado chatbots para apoyo en salud mental, y es probable que la cifra sea aún mayor entre los adolescentes.
Para los adolescentes vulnerables, esto ya es peligroso. La IA puede hacer muchas cosas, pero no puede actuar. La primera regla de protección es nunca guardar preocupaciones para uno mismo. Los chatbots no pueden reportar divulgaciones relacionadas con la protección, lo que crea graves problemas de seguridad y vigilancia de datos para las empresas que los operan. Por lo tanto, permanecen en silencio, manteniendo el secreto.
La respuesta que deben dar las escuelas
No se debe esperar que los gobiernos actúen. Las empresas de IA no se autorregularán. La tecnología avanza demasiado rápido. Es fundamental hablar con los estudiantes, elevar su conciencia y equilibrar las narrativas que encuentran a diario en las redes sociales.
Actualizar una política de protección no es suficiente. El mensaje debe transmitirse. Algunas escuelas han creado videos impactantes, modificado las lecciones de educación emocional y social, realizado asambleas escolares y convocado reuniones con padres.
De lo contrario, los niños se convierten en casos de prueba y chivos expiatorios de los fracasos en el juicio de los adultos.