Das japanische KI-Gesetz fördert Forschung & Koordination über Strafen
Japan verfolgt einen anderen Ansatz in dem globalen Bestreben, künstliche Intelligenz (KI) zu regulieren. Anstatt Verbote oder Risikokategorien einzuführen, hat das Land ein neues Gesetz verabschiedet, das die Forschung, Entwicklung und Nutzung von KI unterstützen soll. Der Fokus liegt auf Planung, Infrastruktur und der Einbindung aller Beteiligten, von der Regierung bis hin zu Unternehmen. Dies steht im Gegensatz zum Modell der Europäischen Union (EU), das stark auf Regulierung und Durchsetzung setzt.
Was das KI-Fördergesetz Japans abdeckt
Japan verfolgt einen strukturierten, staatlich geleiteten Ansatz zur KI. Es hat outlined, wie die Entwicklung und Governance von KI erwartet wird. Um den Plan zu steuern, verlangt das KI-Gesetz die Einrichtung eines KI-Strategiebüros, das vom Kabinett des Landes ins Leben gerufen und vom Premierminister geleitet wird. Das Gesetz beschreibt KI als Technologie, die menschliche kognitive Fähigkeiten wie Schlussfolgerungen, Entscheidungsfindung und Lernen imitiert. Es bringt Interessengruppen aus Regierung, Wissenschaft, Wirtschaft und der Öffentlichkeit zusammen, um die Einführung koordiniert voranzutreiben.
Die Prioritäten des Gesetzes
- Unterstützung von Forschung und Entwicklung von der Grundlagenforschung bis zur praktischen Anwendung
- Förderung von KI in verschiedenen Sektoren, einschließlich öffentlicher Dienstleistungen und Industrie
- Verhinderung von Missbrauch durch Gewährleistung von Transparenz und Angleichung an internationale Normen
- Aktive Teilnahme an der internationalen Normenbildung
- Aufbau von KI-Kompetenzen durch Bildung und Training
Verantwortlichkeiten der Beteiligten
Die Verantwortung wird auf verschiedene Akteure verteilt:
- Die zentrale Regierung wird die Politik leiten und finanzielle sowie gesetzgeberische Unterstützung für die KI-Entwicklung bereitstellen.
- Die lokalen Regierungen werden erwartet, eine regionalspezifische Nutzung von KI zu fördern.
- Universitäten und Forschungsinstitute führen umfassende interdisziplinäre KI-Forschung durch.
- Unternehmen sind aufgefordert, verantwortungsvolle KI-Systeme zu entwickeln, die mit internationalen Normen übereinstimmen und schädliche oder unangemessene Anwendungen verhindern.
- Bürger werden erwartet, sich über KI zu informieren und verantwortungsbewusst damit umzugehen.
Im Gegensatz zu dem regulierenden Ansatz der EU führt Japans Gesetz keine neuen Strafen für den Missbrauch von KI ein. Stattdessen verlässt es sich auf bestehende rechtliche Rahmenbedingungen wie das Strafgesetzbuch und das Urheberrecht, um Risiken anzugehen.
Wie in Artikel 3(4) stated, könnte KI, „wenn sie für unzulässige Zwecke oder auf unangemessene Weise verwendet wird, zu kriminellen Anwendungen, Persönlichkeitsdaten-Lecks oder Urheberrechtsverletzungen führen – was letztendlich das Wohlbefinden der Menschen und deren Rechte und Interessen beeinträchtigen könnte.“
Öffentliche Benennung von Unternehmen
Das Gesetz erlaubt der Regierung, Unternehmen, die an schädlichen oder unangemessenen Anwendungen von KI beteiligt sind, öffentlich zu benennen. Während dies eine öffentliche Verantwortlichkeit hinzufügt, ist es nicht durch spezifische Strafen oder einen speziellen Durchsetzungsmechanismus im Gesetz gestützt.
Gleichzeitig erlaubt das japanische Urheberrecht KI-Entwicklern, urheberrechtlich geschütztes Material ohne vorherige Genehmigung gemäß Artikel 30-4 zu nutzen, solange die Nutzung nicht ausdrucksvoll ist, wie z.B. beim Trainieren von Algorithmen oder der Analyse von Daten. Dies reduziert die Compliance-Kosten für die Industrie, schränkt jedoch auch die Urheberrechtsschutzmaßnahmen ein, ohne neue Sicherheitsvorkehrungen hinzuzufügen.
Anstelle strenger Durchsetzung verlässt sich Japans Ansatz auf weiche Maßnahmen: Investitionen in Infrastruktur wie Rechenleistung, Datenlagerung und große Datensätze sowie die Erweiterung des Talente-Pipelines. Die Regierung plant auch, nicht verbindliche Richtlinien zu erlassen, um Risiken wie Datenmissbrauch oder Verletzungen individueller Rechte anzugehen. Ohne klare Verantwortungsstrukturen oder gesetzliche Verpflichtungen für KI-Entwickler könnte diese Strategie jedoch hinter den Erwartungen zurückbleiben, um aktiv Schäden zu verhindern oder Wiedergutmachung zu gewährleisten, wenn etwas schiefgeht.
Was das EU-KI-Gesetz abdeckt
Im März 2024 verabschiedete die EU ihr Gesetz über künstliche Intelligenz, ein umfassendes Gesetz, das die Nutzung von KI in ihren Mitgliedstaaten regelt. Das Gesetz verwendet ein gestuftes System, um KI je nach dem Risiko, das sie für die öffentliche Sicherheit, grundlegende Rechte oder Gesundheit darstellt, zu regulieren.
Es klassifiziert KI-Systeme in vier Kategorien:
- Verboten: Systeme, die das Verhalten manipulieren, biometrische Identifizierung in Echtzeit verwenden oder soziale Bewertungen ermöglichen, sind verboten.
- Hochriskant: KI, die in kritischen Bereichen wie Gesundheitswesen, Strafverfolgung und Bildung eingesetzt wird, ist erlaubt, unterliegt jedoch strengen Auflagen und Vorschriften.
- Allgemeine KI (GPAI): Werkzeuge wie ChatGPT müssen Zusammenfassungen der Trainingsdaten offenlegen und den EU-Urheberrechtsgesetzen entsprechen. Wenn ein allgemeines KI-Tool breitere Risiken aufweist, muss es zusätzliche regulatorische Anforderungen erfüllen.
- Minimal risk: Diese Kategorie umfasst alle anderen KI-Systeme, die nicht unter die oben genannten Kategorien fallen, wie z.B. ein Spamfilter.
Die EU erlaubt auch regulatorische Sandkästen zur Unterstützung von Innovationen und befreit KI-Systeme, die für die nationale Sicherheit verwendet werden, vom Geltungsbereich des KI-Gesetzes. Jeder Mitgliedstaat muss seinen eigenen Regulierer benennen, um die Durchsetzung zu überwachen.
Vergleich der Ansätze
Japan und die EU haben divergente Strategien bezüglich der Regulierung von KI verkörpert. Japan fördert Innovation durch Koordination, nicht durch Kontrolle. Seine Gesetzgebung umgeht Klassifizierungen und Durchsetzungsmechanismen und versucht, die Beteiligten auf gemeinsame Ziele zu lenken. Die EU ist strenger in ihrem Ansatz. Sie kategorisiert KI-Systeme in Risiko-Klassen und unterstützt die Stufung durch bindende Verpflichtungen und Sanktionen. Die Politik des europäischen Blocks konzentriert sich darauf, Schäden für Einzelpersonen, die öffentliche Sicherheit und demokratische Prozesse zu mildern und gleichzeitig die Entwickler verantwortlich zu halten.
Japan zentralisiert die Verantwortung in einer Institution auf Kabinettsebene, die vom Premierminister geleitet wird und den nationalen KI-Plan entwerfen wird. Innerhalb der EU stellen die Mitgliedstaaten die Einhaltung durch benannte nationale Behörden sicher, einschließlich Marktüberwachungsbehörden und Regulierern für grundlegende Rechte. Während dezentralisiert, arbeiten diese Behörden unter einem harmonisierten EU-Rahmen, der durch das KI-Gesetz festgelegt ist, und koordinieren über das Europäische KI-Büro und den KI-Ausschuss, um eine konsistente Durchsetzung sicherzustellen.
Der Kontrast ist auch darin offensichtlich, wie die beiden mit allgemeiner KI (GPAI) umgehen. Die EU verlangt von GPAI-Entwicklern detaillierte Offenlegungen, einschließlich Überblicke über Trainingsdatensätze und Schutz gegen systemische Risiken. Sie hat auch GPAI an die Einhaltung des EU-Urheberrechts gebunden. Japan hat bisher keine GPAI-spezifischen Bestimmungen in sein Gesetz aufgenommen, fördert jedoch die freiwillige Angleichung an internationale Normen.
Im Wesentlichen nutzt Japan weiche Leitlinien und Zusammenarbeit, um die KI-Entwicklung zu gestalten, während die EU strenge rechtliche Grenzen setzt, um Risiken zu kontrollieren und von Anfang an Sicherheitsvorkehrungen einzubetten.
Warum das wichtig ist
Indiens aktuelle Position
Indien hat bisher keine klar definierte Strategie zur Regulierung von KI entwickelt. Während die Regierung die IndiaAI-Mission im März 2024 genehmigte, die mit einem Budget von 10.371,92 Crore Rupien ausgestattet ist, konzentriert sich die Initiative hauptsächlich auf die Förderung von KI-Forschung und -Entwicklung anstelle von Regulierung. Ihre sieben Komponenten umfassen den Aufbau einer GPU-basierten Recheninfrastruktur, die Entwicklung einheimischer Large Multimodal Models (LMMs), den Zugang zu nicht-personalisierten Datensätzen, die Förderung der KI-Anwendungsentwicklung, die Erweiterung der KI-Bildung, die Unterstützung von Start-ups und die Umsetzung von Projekten zu „Sicherer & Vertrauenswürdiger KI“.
Im Gegensatz zu Japan und der EU, die mit strukturierten regulatorischen Rahmenwerken vorankommen, bleiben Indiens Governance-Bemühungen fragmentiert und es fehlt ein zentralisiertes gesetzgeberisches oder durchsetzendes Mechanismus.
Der IT-Minister Ashwini Vaishnaw hat zuvor gesagt, dass Indien keine strenge Regulierung wie die EU benötigt. Er verwies auf Indiens Telekommunikations- und Datenschutzgesetze als Beispiele dafür, wie Innovation neben Sicherheitsvorkehrungen gedeihen kann. Die jüngsten politischen Bemühungen, wie die Fokussierung auf die Bekämpfung von Deepfakes und algorithmischer Diskriminierung, deuten auf eine Präferenz hin, schädliche Ergebnisse anzugehen, anstatt KI-Systeme insgesamt zu regulieren. Doch da die Bedenken hinsichtlich Profiling, Fehlinformationen, Deepfakes und Urheberrechtsverletzungen zunehmen, könnte dieser sanfte Ansatz unter Druck geraten.
Die NITI Aayog hatte 2018 einen Haftungsrahmen und Schutzmaßnahmen vorgeschlagen, aber es ist nach wie vor unklar, wie oder wann diese Ideen formalisiert werden könnten. In der Zwischenzeit könnte das Fehlen einer zentralen KI-Behörde ein ernsthaftes Hindernis werden, wenn etwas schiefgeht.
Was Japan und die EU Indien lehren können
Das Modell Japans könnte es wert sein, erkundet zu werden. Es priorisiert Koordination, Infrastruktur und Partnerschaft, Elemente, die Indien helfen können, Rechenressourcen zu skalieren, die Wissenschaft zu engagieren und die Politik über Agenturen hinweg zu optimieren. Die Herausforderung besteht darin, dies zu erreichen, ohne regulatorische Sicherheitsvorkehrungen zu opfern.
Die EU verfolgt einen strengeren Ansatz. Ihr KI-Gesetz zeigt, wie starke, proaktive Regulierung aussieht. Durch die rechtliche Adressierung von KI-Risiken hofft die EU, Missbrauch von Anfang an zu verhindern. Ohne etwas Ähnliches könnte Indien Schwierigkeiten haben, schädliche KI-Anwendungen zu stoppen, die durch die Maschen schlüpfen.
Indien steht nun vor einer Entscheidung. Sollte es ein vertrauensbasiertes Modell wie das Japans verfolgen? Oder ein rechtliches und institutionelles Rahmenwerk ähnlich dem der EU aufbauen? Ein ausgewogener Ansatz, der Innovation unterstützt und gleichzeitig Rechte schützt, könnte der beste Weg nach vorn sein.