Japans AI-Gesetz: Forschung und Zusammenarbeit statt Strafen

Das japanische KI-Gesetz fördert Forschung & Koordination über Strafen

Japan verfolgt einen anderen Ansatz in dem globalen Bestreben, künstliche Intelligenz (KI) zu regulieren. Anstatt Verbote oder Risikokategorien einzuführen, hat das Land ein neues Gesetz verabschiedet, das die Forschung, Entwicklung und Nutzung von KI unterstützen soll. Der Fokus liegt auf Planung, Infrastruktur und der Einbindung aller Beteiligten, von der Regierung bis hin zu Unternehmen. Dies steht im Gegensatz zum Modell der Europäischen Union (EU), das stark auf Regulierung und Durchsetzung setzt.

Was das KI-Fördergesetz Japans abdeckt

Japan verfolgt einen strukturierten, staatlich geleiteten Ansatz zur KI. Es hat outlined, wie die Entwicklung und Governance von KI erwartet wird. Um den Plan zu steuern, verlangt das KI-Gesetz die Einrichtung eines KI-Strategiebüros, das vom Kabinett des Landes ins Leben gerufen und vom Premierminister geleitet wird. Das Gesetz beschreibt KI als Technologie, die menschliche kognitive Fähigkeiten wie Schlussfolgerungen, Entscheidungsfindung und Lernen imitiert. Es bringt Interessengruppen aus Regierung, Wissenschaft, Wirtschaft und der Öffentlichkeit zusammen, um die Einführung koordiniert voranzutreiben.

Die Prioritäten des Gesetzes

  • Unterstützung von Forschung und Entwicklung von der Grundlagenforschung bis zur praktischen Anwendung
  • Förderung von KI in verschiedenen Sektoren, einschließlich öffentlicher Dienstleistungen und Industrie
  • Verhinderung von Missbrauch durch Gewährleistung von Transparenz und Angleichung an internationale Normen
  • Aktive Teilnahme an der internationalen Normenbildung
  • Aufbau von KI-Kompetenzen durch Bildung und Training

Verantwortlichkeiten der Beteiligten

Die Verantwortung wird auf verschiedene Akteure verteilt:

  • Die zentrale Regierung wird die Politik leiten und finanzielle sowie gesetzgeberische Unterstützung für die KI-Entwicklung bereitstellen.
  • Die lokalen Regierungen werden erwartet, eine regionalspezifische Nutzung von KI zu fördern.
  • Universitäten und Forschungsinstitute führen umfassende interdisziplinäre KI-Forschung durch.
  • Unternehmen sind aufgefordert, verantwortungsvolle KI-Systeme zu entwickeln, die mit internationalen Normen übereinstimmen und schädliche oder unangemessene Anwendungen verhindern.
  • Bürger werden erwartet, sich über KI zu informieren und verantwortungsbewusst damit umzugehen.

Im Gegensatz zu dem regulierenden Ansatz der EU führt Japans Gesetz keine neuen Strafen für den Missbrauch von KI ein. Stattdessen verlässt es sich auf bestehende rechtliche Rahmenbedingungen wie das Strafgesetzbuch und das Urheberrecht, um Risiken anzugehen.

Wie in Artikel 3(4) stated, könnte KI, „wenn sie für unzulässige Zwecke oder auf unangemessene Weise verwendet wird, zu kriminellen Anwendungen, Persönlichkeitsdaten-Lecks oder Urheberrechtsverletzungen führen – was letztendlich das Wohlbefinden der Menschen und deren Rechte und Interessen beeinträchtigen könnte.“

Öffentliche Benennung von Unternehmen

Das Gesetz erlaubt der Regierung, Unternehmen, die an schädlichen oder unangemessenen Anwendungen von KI beteiligt sind, öffentlich zu benennen. Während dies eine öffentliche Verantwortlichkeit hinzufügt, ist es nicht durch spezifische Strafen oder einen speziellen Durchsetzungsmechanismus im Gesetz gestützt.

Gleichzeitig erlaubt das japanische Urheberrecht KI-Entwicklern, urheberrechtlich geschütztes Material ohne vorherige Genehmigung gemäß Artikel 30-4 zu nutzen, solange die Nutzung nicht ausdrucksvoll ist, wie z.B. beim Trainieren von Algorithmen oder der Analyse von Daten. Dies reduziert die Compliance-Kosten für die Industrie, schränkt jedoch auch die Urheberrechtsschutzmaßnahmen ein, ohne neue Sicherheitsvorkehrungen hinzuzufügen.

Anstelle strenger Durchsetzung verlässt sich Japans Ansatz auf weiche Maßnahmen: Investitionen in Infrastruktur wie Rechenleistung, Datenlagerung und große Datensätze sowie die Erweiterung des Talente-Pipelines. Die Regierung plant auch, nicht verbindliche Richtlinien zu erlassen, um Risiken wie Datenmissbrauch oder Verletzungen individueller Rechte anzugehen. Ohne klare Verantwortungsstrukturen oder gesetzliche Verpflichtungen für KI-Entwickler könnte diese Strategie jedoch hinter den Erwartungen zurückbleiben, um aktiv Schäden zu verhindern oder Wiedergutmachung zu gewährleisten, wenn etwas schiefgeht.

Was das EU-KI-Gesetz abdeckt

Im März 2024 verabschiedete die EU ihr Gesetz über künstliche Intelligenz, ein umfassendes Gesetz, das die Nutzung von KI in ihren Mitgliedstaaten regelt. Das Gesetz verwendet ein gestuftes System, um KI je nach dem Risiko, das sie für die öffentliche Sicherheit, grundlegende Rechte oder Gesundheit darstellt, zu regulieren.

Es klassifiziert KI-Systeme in vier Kategorien:

  • Verboten: Systeme, die das Verhalten manipulieren, biometrische Identifizierung in Echtzeit verwenden oder soziale Bewertungen ermöglichen, sind verboten.
  • Hochriskant: KI, die in kritischen Bereichen wie Gesundheitswesen, Strafverfolgung und Bildung eingesetzt wird, ist erlaubt, unterliegt jedoch strengen Auflagen und Vorschriften.
  • Allgemeine KI (GPAI): Werkzeuge wie ChatGPT müssen Zusammenfassungen der Trainingsdaten offenlegen und den EU-Urheberrechtsgesetzen entsprechen. Wenn ein allgemeines KI-Tool breitere Risiken aufweist, muss es zusätzliche regulatorische Anforderungen erfüllen.
  • Minimal risk: Diese Kategorie umfasst alle anderen KI-Systeme, die nicht unter die oben genannten Kategorien fallen, wie z.B. ein Spamfilter.

Die EU erlaubt auch regulatorische Sandkästen zur Unterstützung von Innovationen und befreit KI-Systeme, die für die nationale Sicherheit verwendet werden, vom Geltungsbereich des KI-Gesetzes. Jeder Mitgliedstaat muss seinen eigenen Regulierer benennen, um die Durchsetzung zu überwachen.

Vergleich der Ansätze

Japan und die EU haben divergente Strategien bezüglich der Regulierung von KI verkörpert. Japan fördert Innovation durch Koordination, nicht durch Kontrolle. Seine Gesetzgebung umgeht Klassifizierungen und Durchsetzungsmechanismen und versucht, die Beteiligten auf gemeinsame Ziele zu lenken. Die EU ist strenger in ihrem Ansatz. Sie kategorisiert KI-Systeme in Risiko-Klassen und unterstützt die Stufung durch bindende Verpflichtungen und Sanktionen. Die Politik des europäischen Blocks konzentriert sich darauf, Schäden für Einzelpersonen, die öffentliche Sicherheit und demokratische Prozesse zu mildern und gleichzeitig die Entwickler verantwortlich zu halten.

Japan zentralisiert die Verantwortung in einer Institution auf Kabinettsebene, die vom Premierminister geleitet wird und den nationalen KI-Plan entwerfen wird. Innerhalb der EU stellen die Mitgliedstaaten die Einhaltung durch benannte nationale Behörden sicher, einschließlich Marktüberwachungsbehörden und Regulierern für grundlegende Rechte. Während dezentralisiert, arbeiten diese Behörden unter einem harmonisierten EU-Rahmen, der durch das KI-Gesetz festgelegt ist, und koordinieren über das Europäische KI-Büro und den KI-Ausschuss, um eine konsistente Durchsetzung sicherzustellen.

Der Kontrast ist auch darin offensichtlich, wie die beiden mit allgemeiner KI (GPAI) umgehen. Die EU verlangt von GPAI-Entwicklern detaillierte Offenlegungen, einschließlich Überblicke über Trainingsdatensätze und Schutz gegen systemische Risiken. Sie hat auch GPAI an die Einhaltung des EU-Urheberrechts gebunden. Japan hat bisher keine GPAI-spezifischen Bestimmungen in sein Gesetz aufgenommen, fördert jedoch die freiwillige Angleichung an internationale Normen.

Im Wesentlichen nutzt Japan weiche Leitlinien und Zusammenarbeit, um die KI-Entwicklung zu gestalten, während die EU strenge rechtliche Grenzen setzt, um Risiken zu kontrollieren und von Anfang an Sicherheitsvorkehrungen einzubetten.

Warum das wichtig ist

Indiens aktuelle Position

Indien hat bisher keine klar definierte Strategie zur Regulierung von KI entwickelt. Während die Regierung die IndiaAI-Mission im März 2024 genehmigte, die mit einem Budget von 10.371,92 Crore Rupien ausgestattet ist, konzentriert sich die Initiative hauptsächlich auf die Förderung von KI-Forschung und -Entwicklung anstelle von Regulierung. Ihre sieben Komponenten umfassen den Aufbau einer GPU-basierten Recheninfrastruktur, die Entwicklung einheimischer Large Multimodal Models (LMMs), den Zugang zu nicht-personalisierten Datensätzen, die Förderung der KI-Anwendungsentwicklung, die Erweiterung der KI-Bildung, die Unterstützung von Start-ups und die Umsetzung von Projekten zu „Sicherer & Vertrauenswürdiger KI“.

Im Gegensatz zu Japan und der EU, die mit strukturierten regulatorischen Rahmenwerken vorankommen, bleiben Indiens Governance-Bemühungen fragmentiert und es fehlt ein zentralisiertes gesetzgeberisches oder durchsetzendes Mechanismus.

Der IT-Minister Ashwini Vaishnaw hat zuvor gesagt, dass Indien keine strenge Regulierung wie die EU benötigt. Er verwies auf Indiens Telekommunikations- und Datenschutzgesetze als Beispiele dafür, wie Innovation neben Sicherheitsvorkehrungen gedeihen kann. Die jüngsten politischen Bemühungen, wie die Fokussierung auf die Bekämpfung von Deepfakes und algorithmischer Diskriminierung, deuten auf eine Präferenz hin, schädliche Ergebnisse anzugehen, anstatt KI-Systeme insgesamt zu regulieren. Doch da die Bedenken hinsichtlich Profiling, Fehlinformationen, Deepfakes und Urheberrechtsverletzungen zunehmen, könnte dieser sanfte Ansatz unter Druck geraten.

Die NITI Aayog hatte 2018 einen Haftungsrahmen und Schutzmaßnahmen vorgeschlagen, aber es ist nach wie vor unklar, wie oder wann diese Ideen formalisiert werden könnten. In der Zwischenzeit könnte das Fehlen einer zentralen KI-Behörde ein ernsthaftes Hindernis werden, wenn etwas schiefgeht.

Was Japan und die EU Indien lehren können

Das Modell Japans könnte es wert sein, erkundet zu werden. Es priorisiert Koordination, Infrastruktur und Partnerschaft, Elemente, die Indien helfen können, Rechenressourcen zu skalieren, die Wissenschaft zu engagieren und die Politik über Agenturen hinweg zu optimieren. Die Herausforderung besteht darin, dies zu erreichen, ohne regulatorische Sicherheitsvorkehrungen zu opfern.

Die EU verfolgt einen strengeren Ansatz. Ihr KI-Gesetz zeigt, wie starke, proaktive Regulierung aussieht. Durch die rechtliche Adressierung von KI-Risiken hofft die EU, Missbrauch von Anfang an zu verhindern. Ohne etwas Ähnliches könnte Indien Schwierigkeiten haben, schädliche KI-Anwendungen zu stoppen, die durch die Maschen schlüpfen.

Indien steht nun vor einer Entscheidung. Sollte es ein vertrauensbasiertes Modell wie das Japans verfolgen? Oder ein rechtliches und institutionelles Rahmenwerk ähnlich dem der EU aufbauen? Ein ausgewogener Ansatz, der Innovation unterstützt und gleichzeitig Rechte schützt, könnte der beste Weg nach vorn sein.

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...