AI: Schulen müssen jetzt auf Deepfakes und Therapie-Chatbots reagieren
Im Jahr 2025 sahen sich KI-Unternehmen vielen rechtlichen Herausforderungen gegenüber, einschließlich Klagen von Eltern, die behaupteten, diese Tools hätten zum Suizid ihrer jugendlichen Kinder beigetragen.
Trotz dieser Gerichtsverfahren drängen KI-Unternehmen weiterhin mit dem Mantra voran, den Menschen das zu geben, was sie wollen. Dies führte zu Entwicklungen wie der „Cameo“-Funktion von ChatGPT, bei der Nutzer das digitale Abbild einer Person in künstliche Szenen einfügen können, und Elons Musks Grok, das in der Lage ist, explizite und hochrealistische Bilder und Videos zu generieren.
Regierungen auf der ganzen Welt bemühen sich jetzt, die Auswirkungen solcher Tools zu verstehen und zu regulieren. Doch Schulen können es sich nicht leisten, zu warten.
Vollständige Transparenz
Ich glaube, dass KI, wenn sie sinnvoll eingesetzt wird, ein enormes Potenzial hat, das Lernen zu unterstützen und zu verbessern. Sie kann das kritische Denken stärken und individuelle Lernunterstützung bieten. Ich habe viel zu diesem Thema geschrieben und als KI-Leiter an meiner Schule setze ich mich häufig für ihren sinnvollen Einsatz bei meinen Schülern ein. Allerdings fühle ich mich gerade deshalb enorm unter Druck, die Ernsthaftigkeit der neuen Schutzrisiken hervorzuheben, die diese Technologien schaffen.
Deepfakes – ein Verbrechen, bei dem jeder zum Opfer wird
Die Fähigkeit, gefälschte Bilder und Videos zu erstellen, ist nichts Neues. Neu ist jedoch die Leichtigkeit und Geschwindigkeit, mit der dies jetzt geschehen kann. Kinder ohne technische Kenntnisse und ohne teure Software können mit nur einem Klick realistische Videos von Prominenten erstellen, die rassistische Äußerungen von sich geben oder lächerliche Dinge tun.
Erwarten Sie nicht, dass gewinnorientierte KI-Unternehmen sich selbst kontrollieren. Während KI-Unternehmen weiterhin in Gerichtsverfahren über die Legalität kämpfen, ist die Entscheidung bereits für unsere Schüler getroffen worden. Soziale Medien haben dies in Unterhaltung verwandelt, etwas, über das man lachen und das man unter Freunden teilen kann. Doch es ist nicht unterhaltsam für das Opfer. Regierungen weltweit bewegen sich nun, um bestehende Gesetze durchzusetzen und neue einzuführen, um Opfer zu schützen und die Verbreitung solchen Materials zu verhindern.
Was schlimmer ist: Selbst wenn sie davon hören, bedeutet ihre unzureichend entwickelte präfrontale Kortex, dass Kinder biologisch schnell reagieren und langsam die Konsequenzen rationalisieren. Die Fähigkeit, illegal und tiefgreifend schädliches Material innerhalb von Sekunden aus einem Schlafzimmer heraus zu erstellen und zu verbreiten, ist daher katastrophal.
Was viele Erwachsene nicht realisieren und fast kein Teenager weiß, ist, dass das Teilen von Deepfakes ebenfalls ein Verbrechen sein kann.
Chatbots als Therapeuten
Vor zwei Jahren lachten viele Lehrer an meiner Schule über die Idee, dass Menschen auf KI-Chatbots zur Bewältigung von psychischen Gesundheitsproblemen zurückgreifen würden. Einige tun dies immer noch, aber sie liegen falsch. Eine Studie von Mental Health UK berichtet jetzt, dass jeder dritte Erwachsene Chatbots zur Unterstützung seiner psychischen Gesundheit genutzt hat, und die Zahl ist unter Teenagern wahrscheinlich noch höher. Ein Werkzeug, das rund um die Uhr verfügbar ist, unendlich geduldig und unfehlbar mitfühlend, wirkt beruhigend.
Für verletzliche Jugendliche wird dies jedoch bereits gefährlich. KI kann vieles tun, aber sie kann nicht handeln. Als ich als Lehrer ausgebildet wurde, wurde mir beigebracht, dass die erste Regel des Schutzes darin besteht, Bedenken niemals für sich zu behalten. Man muss sie melden und nachverfolgen. Genau das tun KI-Chatbots nicht und können es nicht tun. Sollte es ihnen möglich sein, Schutzmeldungen automatisch zu melden, würde dies ernsthafte Probleme mit Datensicherheit und Überwachung für die Unternehmen schaffen, die sie betreiben. Daher bleiben sie still und bewahren das Geheimnis.
Wenn Kinder aufhören, mit Menschen zu sprechen, hören sie auf, geschützt zu werden. Im Jahr 2026 werden Kinder auf der ganzen Welt viel weniger zu denen, die sich um sie kümmern, um Hilfe bitten. Viele werden nicht mehr mit ihren Eltern, ihren Lieblingslehrern oder dem Schutzbeauftragten der Schule sprechen. Stattdessen werden sie zunehmend auf Chatbots angewiesen sein; Chatbots, die lediglich Fürsorge und Besorgnis simulieren.
Die Reaktion, die Schulen zeigen müssen
Schauen Sie nicht auf die Regierungen. Erwarten Sie nicht, dass gewinnorientierte KI-Unternehmen sich selbst kontrollieren. Warten Sie nicht auf Berichte und Studien, die erscheinen. Die Technologie bewegt sich einfach zu schnell.
Sprechen Sie mit Ihren Schülern. Erhöhen Sie ihr Bewusstsein. Versuchen Sie, die Erzählungen auszugleichen, denen sie Tag für Tag in sozialen Medien begegnen.
Die Fähigkeit, illegal und tiefgreifend schädliches Material innerhalb von Sekunden aus einem Schlafzimmer heraus zu erstellen und zu verbreiten, ist katastrophal. Das Aktualisieren einer Schutzrichtlinie reicht nicht aus. Die Botschaft muss vermittelt werden. An unserer Schule haben wir eindringliche, aber schülerzentrierte Videos erstellt, unsere PSHE-Stunden geändert, ganze Schulversammlungen abgehalten und Eltern zu Treffen eingeladen.
Andernfalls werden Kinder sowohl zu Testfällen als auch zu Sündenböcken für Fehler im Urteilsvermögen von Erwachsenen.