Bulgaria Still Lacks Oversight of High-Risk AI Systems
Das Ministerium für elektronische Regierungsführung in Bulgarien befindet sich in der Vorbereitungsphase zur Entwicklung eines nationalen Rahmens für das Gesetz über Künstliche Intelligenz (AI Act). Bislang wurden keine endgültigen Entscheidungen zu den Koordinationsmodellen, der Aufsicht über hochriskante Systeme und den nationalen Umsetzungsvorschriften getroffen.
Aktueller Stand der Gesetzgebung
Das Ministerium hat die Entscheidung des Ministerrates Nr. 398 vom 18. Juni 2025 verabschiedet, die sieben zuständige Stellen zum Schutz grundlegender Rechte bestimmt. Dazu gehören Institutionen, die sich mit Nichtdiskriminierung, Datenschutz, Verbraucherschutz, Kinderschutz und Arbeitsrecht befassen. Dieser Schritt ist jedoch nur ein Teil der Anforderungen des AI Act und klärt nicht die Aufsicht über hochriskante KI-Systeme sowie das Sanktionsregime.
Geplante Maßnahmen und Herausforderungen
Das Ministerium hat einen Entwurf für eine Entscheidung des Ministerrates vorbereitet, um eine nationale Benachrichtigungsbehörde zu benennen, die jedoch noch nicht zur Genehmigung vorgelegt wurde. Ähnlich verhält es sich mit der Marktaufsicht über hochriskante KI-Systeme. Die genauen Zuständigkeiten und die Verteilung der Befugnisse zwischen den Behörden sind derzeit unklar.
Eine wesentliche interdepartementale Arbeitsgruppe zur Entwicklung des nationalen Regulierungsrahmens ist noch nicht operational. Die Frist zur Entwicklung des nationalen Rahmens ist für März 2026 angesetzt, was bedeutet, dass Bulgarien während der ersten Umsetzungsphase ohne umfassenden nationalen Rahmen arbeiten wird.
Fehlende Entscheidung über ein nationales Koordinationszentrum
Aktuell gibt es keine Pläne zur Schaffung eines nationalen Koordinationszentrums für Künstliche Intelligenz. Das Koordinationsmodell soll von der zukünftigen Arbeitsgruppe vorgeschlagen werden, was die Klarheit über die institutionelle Architektur weiter verzögert.
Schlussfolgerung
Die Umsetzung des AI Act in Bulgarien befindet sich hauptsächlich in der Vorbereitungsphase, ohne einen klar definierten nationalen Rahmen und ohne festgelegte Verantwortlichkeiten für die Aufsicht über hochriskante KI-Systeme. In der ersten Umsetzungsphase werden vorläufige Lösungen und institutionelle Koordination im Aufbau erwartet, was zu einer begrenzten Vorhersehbarkeit für Unternehmen und Kontrollbehörden führt.