Kann das KI-Gesetz in Korea Deepfake-Verbrechen stoppen?

Kann das KI-Gesetz Koreas Verbrechen mit Deepfakes stoppen, während Musks Grok unter Beschuss steht?

Das KI-Unternehmen von Elon Musk sieht sich in der Kontroverse um die Verbreitung von Deepfake-Bildern. Das koreanische Rahmenrecht zur Entwicklung künstlicher Intelligenz tritt nächste Woche in Kraft, und alle Augen sind darauf gerichtet, ob diese Gesetzgebung – die weltweit erste umfassende KI-Regulierung – ihre Rolle effektiv erfüllen kann.

Allerdings wächst der Zweifel an der Wirksamkeit des Gesetzes, da viele praktische Hürden vorhergesagt werden, die es schwierig machen könnten, die Deepfake-Dienste von Musk zu blockieren oder den Zugang zu beschränken.

Fachleute aus der Branche berichteten, dass das KI-Modell Grok weiterhin Funktionen auf Musks Social-Media-Plattform anbietet, die alltägliche Fotos in sexuell explizite Deepfake-Bilder umwandeln.

Während Malaysia und Indonesien den Zugang zur Plattform eingeschränkt haben und in anderen Ländern rechtliche Ermittlungen eingeleitet wurden, hat xAI die Funktion für zahlende Abonnenten limitiert, doch die Bedenken bleiben bestehen.

Das Gesetz und seine Bestimmungen

Das Gesetz, das am 22. Januar in Kraft tritt, wurde erlassen, um die Verantwortung von KI-Betreibern zu stärken und eine Grundlage zu schaffen, die das Vertrauen in eine KI-gesteuerte Gesellschaft fördert. Die Verhinderung von Deepfake-Verbrechen wurde als zentrales Ziel genannt.

Das Gesetz gilt auch für ausländische Betreiber und erfordert, dass sie inländische Vertreter benennen, um rechtliche Verpflichtungen zu erfüllen. Allerdings ist die Transparenzverpflichtung zur Kennzeichnung von Deepfakes nicht spezifisch Teil der Rolle des inländischen Vertreters. Diese Unklarheit könnte die Prävention oder Reaktion bei der Kommunikation mit ausländischen Betreibern verzögern.

Stattdessen schreibt das Gesetz vor, dass KI-generierte Inhalte gekennzeichnet werden müssen. Es sind sichtbare Wasserzeichen auf Deepfake-Inhalten erforderlich, die schwer von der Realität zu unterscheiden sind. Verstöße lösen einen Korrekturauftrag aus, und die Nichteinhaltung kann mit einer Geldstrafe von bis zu 30 Millionen Won (ca. 20.300 USD) geahndet werden.

Gemäß diesen Regeln müssen die Deepfake-Bilder von Grok Wasserzeichen tragen. Da das Gesetz jedoch eine Mindestgrace-Periode von einem Jahr beinhaltet, ist eine sofortige Durchsetzung unmöglich.

Herausforderungen und Ausblick

Analysten sagen voraus, dass es selbst nach Ablauf der Grace-Periode schwierig bleiben wird, ausländische KI-Dienste direkt zu blockieren oder zu beschränken, da dies potenzielle Handelskonflikte mit sich bringen könnte.

„Unter den aktuellen Gesetzen ist es schwer, mehr als Geldstrafen zu verhängen, wenn ausländische Unternehmen nicht freiwillig kooperieren“, sagte ein Anwalt.

Experten raten dazu, dass bis zur vollständigen Inkraftsetzung des neuen KI-Gesetzes Deepfake-Fälle unter bestehenden Gesetzen wie dem Informations- und Kommunikationsnetzgesetz oder dem Gesetz zum Schutz personenbezogener Daten behandelt werden sollten.

„Die Verbindlichkeit des Gesetzes allein ist schwach“, sagte ein weiterer Anwalt. „Regulierungen müssen ergänzt werden, indem spezifische Verstöße in Verbindung mit bestehenden Gesetzen sanktioniert werden.“

Die Regierung hält an der Position fest, eine minimale Regulierung anzuwenden und die Situation über einen bestimmten Zeitraum zu beobachten. Ein Beamter des Ministeriums für Wissenschaft und ICT erklärte: „Da sich die KI-Technologie weiterhin durch Versuch und Irrtum entwickelt, werden wir die Situation vorerst beobachten, um eine Selbstkorrektur zu ermöglichen.“

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...