Acciones urgentes de las escuelas frente a deepfakes y chatbots terapéuticos

AI: Las escuelas deben actuar ahora sobre los deepfakes y los chatbots terapéuticos

Las empresas de inteligencia artificial se han enfrentado a múltiples demandas, incluidos casos presentados por padres que alegan que estas herramientas contribuyeron al suicidio de sus hijos adolescentes.

A pesar de estos casos judiciales, las compañías de IA continúan avanzando bajo el mantra de «dar a las personas lo que quieren». Esto ha llevado a desarrollos como la función «Cameo» de ChatGPT, donde los usuarios pueden añadir el parecido digital de una persona en escenas artificiales, y Grok, que puede generar imágenes y videos explícitos y sumamente realistas.

Los gobiernos de todo el mundo ahora se apresuran a comprender y regular las implicaciones de estas herramientas. Sin embargo, las escuelas no pueden permitirse esperar.

La importancia de la transparencia

La IA, cuando se utiliza sensatamente, tiene un enorme potencial para apoyar y mejorar el aprendizaje. Puede fortalecer el pensamiento crítico y brindar apoyo individual a los estudiantes. Sin embargo, esta oportunidad también implica la necesidad de destacar la seriedad de los nuevos riesgos que generan estas tecnologías.

En las escuelas es fundamental educar a los niños sobre dos preocupaciones específicas que han surgido rápidamente: los deepfakes y los chatbots terapéuticos.

Deepfakes: un crimen donde todos son víctimas

La capacidad de crear imágenes y videos falsos no es nueva, pero la facilidad y rapidez con la que ahora puede hacerse es alarmante. Los niños, sin conocimientos técnicos ni software costoso, pueden crear videos realistas de celebridades haciendo comentarios racistas o realizando acciones ridículas con solo presionar un botón.

No se debe esperar que las empresas de IA, impulsadas por el lucro, se autorregulen. Mientras estas empresas luchan en los tribunales por su legalidad, ya se ha tomado una decisión respecto a nuestros estudiantes. Las redes sociales convirtieron esto en entretenimiento, algo para reír y compartir entre amigos, pero no es divertido para la víctima.

A nivel global, los gobiernos empiezan a aplicar leyes existentes y a introducir nuevas para proteger a las víctimas y prevenir la difusión de este tipo de material. A pesar de ello, los estudiantes no están siendo educados sobre estos riesgos. Es grave que, aunque los escuchen, su desarrollo cognitivo pueda llevarlos a actuar sin razonar las consecuencias. La capacidad de crear y difundir material ilegal y dañino desde una habitación en segundos es un desastre.

Chatbots como terapeutas

Hace dos años, muchos educadores consideraban ridículo que las personas recurrieran a chatbots de IA para tratar problemas de salud mental. Sin embargo, un estudio reciente indica que uno de cada tres adultos ha utilizado chatbots para apoyo en salud mental, y es probable que la cifra sea aún mayor entre los adolescentes.

Para los adolescentes vulnerables, esto ya es peligroso. La IA puede hacer muchas cosas, pero no puede actuar. La primera regla de protección es nunca guardar preocupaciones para uno mismo. Los chatbots no pueden reportar divulgaciones relacionadas con la protección, lo que crea graves problemas de seguridad y vigilancia de datos para las empresas que los operan. Por lo tanto, permanecen en silencio, manteniendo el secreto.

La respuesta que deben dar las escuelas

No se debe esperar que los gobiernos actúen. Las empresas de IA no se autorregularán. La tecnología avanza demasiado rápido. Es fundamental hablar con los estudiantes, elevar su conciencia y equilibrar las narrativas que encuentran a diario en las redes sociales.

Actualizar una política de protección no es suficiente. El mensaje debe transmitirse. Algunas escuelas han creado videos impactantes, modificado las lecciones de educación emocional y social, realizado asambleas escolares y convocado reuniones con padres.

De lo contrario, los niños se convierten en casos de prueba y chivos expiatorios de los fracasos en el juicio de los adultos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...