Warum die KI-Sicherheit am Safer Internet Day 2026 im Mittelpunkt steht
Am Safer Internet Day (10. Februar) steht die Künstliche Intelligenz (KI) erwartungsgemäß im Mittelpunkt. Das Thema für 2026, das vom Safer Internet Centre im Vereinigten Königreich ausgewählt wurde, lautet „Smart Tech, Safe Choices – Erforschung der sicheren und verantwortungsvollen Nutzung von KI“. Dieses Thema spiegelt die zunehmenden Bedenken wider, wie KI-Systeme in digitalen Plattformen eingesetzt, gesichert und missbraucht werden.
KI-Regulierung und Online-Schäden
Im Vereinigten Königreich hat die neue Gesetzgebung begonnen, einige der sichtbarsten mit KI verbundenen Sicherheitsrisiken zu adressieren. Seit dem 6. Februar ist es illegal, KI-generierte Deepfakes ohne die Zustimmung der betroffenen Person anzufordern oder zu erstellen. In den USA legt die Bundespolitik den Fokus auf Innovation und strategische Vorteile, wobei Sicherheitsbedenken oft gegen wirtschaftliche Prioritäten abgewogen werden.
Das „Take It Down“-Gesetz, das im Mai 2025 in den USA verabschiedet wurde, ist das erste landesweite Gesetz, das gezielt die Veröffentlichung von KI-generierten Deepfakes und anderen nicht einvernehmlichen intimen Bildern anvisiert. Darüber hinaus haben 46 Bundesstaaten die Erstellung und Verbreitung solchen Materials mit der Absicht kriminalisiert.
Für international tätige Organisationen erschwert dieses fragmentierte rechtliche Umfeld die Einhaltung der Vorschriften, insbesondere wenn es um Identitätsmissbrauch, Betrug durch Nachahmung und synthetische Medien geht.
KI als Bedrohungsverstärker
Laut dem AI Radar 2026 von BCG zählen 65 % der Geschäftsführer die Beschleunigung der KI-Adoption zu ihren drei wichtigsten Prioritäten für 2026. Der schnelle Einsatz hat jedoch neue Sicherheitsrisiken geschaffen. In Reaktion darauf haben 38 Bundesstaaten in den USA nahezu 100 KI-bezogene Maßnahmen angenommen oder erlassen.
Eines der neuesten Gesetze, das in Texas verabschiedet wurde und seit Januar in Kraft ist, regelt bestimmte kommerzielle Nutzungen von KI-Systemen und spiegelt die zunehmende Überprüfung der Datenverarbeitung, automatisierten Entscheidungsfindung und KI-gesteuerten Risiken wider.
Experten betonen die Spannung zwischen Innovation und Sicherheitsanfälligkeit. Während generative KI aufregende Möglichkeiten eröffnet, bringt sie auch neue Gefahren mit sich, darunter Deepfakes, Fehlinformationen und Datenschutzrisiken. Ein menschenzentrierter Ansatz für die Online-Sicherheit ist daher von großer Bedeutung, denn das Online-Leben ist das echte Leben.
Risiken und Herausforderungen
Der Safer Internet Day erinnert daran, dass Cyberrisiken heute weniger mit dem Hacken von Systemen zu tun haben, sondern mehr mit der Ausnutzung menschlichen Verhaltens. Die wachsende Bedrohung kommt von KI-gesteuertem Social Engineering, bei dem Angreifer das Vertrauen der Menschen anvisieren, anstatt technische Schwachstellen auszunutzen.
Forschungsergebnisse zeigen, dass die Belegschaft sich zwar cyberbewusst fühlt, jedoch oft unterqualifiziert ist. Vier von fünf Mitarbeitern glauben, sie könnten einen Phishing-Versuch oder einen KI-gesteuerten Cyberangriff am Arbeitsplatz erkennen, während mehr als ein Drittel der britischen Arbeitnehmer noch nie eine Cybersecurity-Schulung erhalten haben.
Sicherheit in KI-Systeme integrieren
Zusätzlich zur Gesetzgebung haben sowohl das Safer Internet Centre im Vereinigten Königreich als auch ConnectSafely in den USA Leitlinien veröffentlicht, um das Risiko für Benutzer, Eltern und Fachkräfte, die mit schutzbedürftigen Gruppen arbeiten, zu reduzieren. Diese Ressourcen betonen zunehmend das Systemdesign, Vertrauen und Verifizierung, anstatt ständige Überwachung.
Die Regulierung von KI bleibt im Vereinigten Königreich weitgehend sektorspezifisch. Während ein KI-Gesetz, das in der King’s Speech im Juli 2025 angekündigt wurde, voraussichtlich nur die leistungsstärksten Modelle regulieren wird, wird ein umfassenderer Rahmen nicht vor Mai 2026 erwartet.
Für Führungskräfte im Bereich Cybersicherheit ist die Lektion klar: Während KI in digitale Dienste eingebettet wird, müssen Sicherheit, Governance und menschliche Wachsamkeit im gleichen Maße weiterentwickelt werden. Andernfalls wird das Risiko, das von KI ausgeht, schneller wachsen als die Verteidigungsmaßnahmen, die zu ihrem Schutz entwickelt werden.