Einführung in das Gesetz Nr. 132 zur Regulierung von Künstlicher Intelligenz in Italien
Mit der Verabschiedung des Gesetzes Nr. 132 am 23. September 2025 wird Italien zum ersten Mitgliedstaat der Europäischen Union, der ein umfassendes und spezifisches Gesetz zur Einhaltung der Vorschriften der EU-Verordnung Nr. 2024/1689 („AI Act“) verabschiedet. Damit wird ein nationaler Rahmen für die Governance, Aufsicht und Unterstützung von Innovationen im Bereich der Künstlichen Intelligenz (KI) geschaffen.
Hintergrund
Der Entwurf des Gesetzes 1146/24 erhielt verschiedene Meinungen von Sektorbehörden, darunter die italienische Datenschutzbehörde („Garante“) und die Europäische Kommission. Letztere wies in ihrer Stellungnahme vom 12. September 2024 auf die Notwendigkeit einer größeren Konsistenz mit dem AI Act und einer größeren Offenheit gegenüber dem Einsatz von Künstlicher Intelligenz hin. Der überarbeitete Text wurde am 17. September 2025 vom italienischen Parlament genehmigt und am 25. September 2025 im Amtsblatt veröffentlicht.
Betroffene Sektoren
Der erste Abschnitt des Gesetzes, der sich mit allgemeinen Grundsätzen befasst, führt eine nationale Strategie für KI ein, die alle zwei Jahre vom Interministeriellen Ausschuss für die digitale Transformation mit Unterstützung des Amts für digitale Transformation der Präsidentschaft des Ministerrates aktualisiert wird. Diese Strategie dient als Referenz für politische und regulatorische Entscheidungen zur KI.
Der zweite Abschnitt enthält spezifische Regeln für einzelne Sektoren und gibt an, in welchen Bereichen und auf welche Weise KI eingesetzt werden darf. Im Gesundheitswesen und in der wissenschaftlichen Forschung ist der Einsatz von KI als Unterstützungstool erlaubt, jedoch darf sie nicht zur Diskriminierung oder zur Entscheidungsfindung über den Zugang zu Behandlungen verwendet werden. Die menschliche Rolle bleibt zentral, und Menschen sind für endgültige Entscheidungen verantwortlich.
Arbeitsmarkt
Im Arbeitssektor führt das Gesetz spezifische Schutzmaßnahmen für die Verwaltung von Auswahl-, Bewertungs- und Überwachungsprozessen von Arbeitnehmern unter Verwendung von KI-Systemen ein. Es werden Transparenzpflichten für Arbeitgeber, das Recht auf Information für Arbeitnehmer und die Notwendigkeit von Folgenabschätzungen eingeführt, um algorithmische Diskriminierung zu verhindern.
Das Gesetz etabliert auch ein Observatorium für die Auswirkungen von KI auf die Arbeit, mit dem Ziel, die Vorteile zu maximieren und die Risiken der Nutzung von KI-Systemen am Arbeitsplatz zu mindern und Schulungen für Arbeitnehmer und Arbeitgeber im Bereich der Künstlichen Intelligenz zu fördern.
Justiz
Im Justizsektor legt die Gesetzgebung strenge Kriterien für den Einsatz von KI-Systemen im gerichtlichen Bereich fest, sowohl für das Fallmanagement als auch für die Entscheidungsunterstützung. Die menschliche Aufsicht wird verstärkt, und der Einsatz von KI für interpretative Tätigkeiten ist untersagt: Der Einsatz automatischer Analysetools ist auf organisatorische, arbeitserleichternde und administrative Zwecke beschränkt, um den vollständigen Schutz des Rechts auf Verteidigung und die Vertraulichkeit der beteiligten Parteien zu gewährleisten.
Geistiges Eigentum
Das Gesetz stellt fest, dass auch Werke, die „mit Hilfe von Künstlicher Intelligenz“ erstellt wurden, urheberrechtlichen Schutz genießen, vorausgesetzt, sie sind das Ergebnis der intellektuellen Arbeit des Autors. Es wird klargestellt, dass rein von KI generiertes Material nicht geschützt ist. Die Reproduktion und Extraktion von Text und Daten unter Verwendung von KI ist erlaubt, sofern die Quellen rechtmäßig zugänglich sind.
Governance
In Bezug auf die Governance wird die nationale Strategie für KI dem Präsidium des Ministerrates anvertraut, einschließlich der Beteiligung der Agentur für digitale Italien (AgID) und der Nationalen Cybersecurity-Agentur (ACN) als nationalen Behörden sowie der sektoriellen Aufsichtsbehörden (Bank von Italien, CONSOB, IVASS) im Rahmen ihrer jeweiligen Zuständigkeiten. Besonderes Augenmerk wird auf Cybersicherheit gelegt, die als wesentliche Voraussetzung während des gesamten Lebenszyklus von KI-Systemen und -Modellen betrachtet wird.
Verknüpfungen mit dem AI Act, NIS2 und GDPR
Das Gesetz deckt entscheidend die Bereiche ab, die im AI Act unberücksichtigt bleiben: Es identifiziert Aufsichtsbehörden und -befugnisse, regelt Inspektionen, unterstützt KMUs und öffentliche Verwaltungen und definiert Sanktionen für nicht vollständig harmonisierte Verhaltensweisen (z.B. Deepfakes). Selbst innerhalb der Grenzen der europäischen Harmonisierung erhöht der nationale Gesetzgeber die Anforderungen an organisatorische Schutzmaßnahmen und „prozedurale“ Anforderungen (Transparenz, Kontrollen, Schulungen, Dokumentation) und erstreckt sie auf risikobehaftete Fälle und sensible Sektoren wie Arbeit, Gesundheit und Justiz.
In Bezug auf generative KI und Deepfakes verfolgt Italien einen preskriptiveren Ansatz: Es werden Straftaten und Mechanismen zur Rückverfolgbarkeit und Authentizität von Inhalten eingeführt, während der AI Act Informationspflichten und Verhaltenskodizes (mit erweiterten Anforderungen für Systeme, die ein systemisches Risiko darstellen) begünstigt. Das Ergebnis ist ein Modell, das mit der GDPR, NIS2 und sektorspezifischen Regeln integriert ist und darauf abzielt, allgemeine europäische Klauseln in überprüfbare operationale Kontrollen zu übersetzen.
Fazit
In konkreten Begriffen wird die Einhaltung von der Fähigkeit abhängen, Governance und Kontrolle zu orchestrieren. Zu den Prioritäten für Unternehmen zählen sicherlich die Notwendigkeit,:
- Systeme zu kartieren und Risiken zu klassifizieren;
- DPIAs zu integrieren;
- Rollen und Verantwortlichkeiten von Entwicklern und Benutzern zu definieren;
- „AI Act-ready“-Vertragsklauseln in die Lieferkette aufzunehmen;
- Technische Maßnahmen zu implementieren, einschließlich für die Inhaltserstellung und das Management von Vorfällen und Meldungen.
Schließlich ist eine aktive Überwachung europäischer Exekutivakte und nationaler Richtlinien (einschließlich derer der italienischen Datenschutzbehörde) notwendig, da diese Standards zu Bewertungskriterien, technischen Parametern und Inspektionsprioritäten führen werden. Wer jetzt handelt, wird nicht nur das Risiko von Sanktionen reduzieren, sondern auch einen Wettbewerbsvorteil erlangen: die Umwandlung von Compliance in ein Erfordernis für Qualität, Sicherheit und Zuverlässigkeit von KI-Systemen.