Offener Brief: Ablehnung der Schwächung der Transparenz im AI-Gesetz

Gemeinsames offenes Schreiben zur Ablehnung des Vorschlags zur Unterminierung der Transparenz im KI-Gesetz

CDT Europe hat zusammen mit 60 Organisationen ein offenes Schreiben von Access Now und European Digital Rights (EDRi) unterzeichnet, das sich an die EU-Institutionen richtet. Darin wird gefordert, den Entwurf zur Streichung des Artikels 49(2) des KI-Gesetzes, der eine Transparenzsicherung für hochriskante KI-Systeme vorsieht, abzulehnen.

Problematische Ausnahmeregelung

Eine stark kritisierte Ausnahmeregelung im KI-Gesetz ermöglicht es Anbietern, deren Systeme in den als hochriskant eingestuften Anwendungsfällen fallen, sich von der Kategorie der hochriskanten Systeme und den damit verbundenen Verpflichtungen zu befreien. Eine entscheidende Schutzmaßnahme gegen diese schädliche Ausnahmeregelung ist die Verpflichtung für Anbieter von KI-Systemen, die sich von der Kategorie der hochriskanten Systeme befreien, ihre Systeme dennoch in einer EU-Datenbank zu registrieren. Dies ermöglicht eine Überprüfung und Aufsicht über die potenzielle Ausnutzung dieser Ausnahmeregelung. Diese Schutzmaßnahme ist nun bedroht.

Wichtigkeit der Transparenz

Diese Transparenzsicherung stellt sicher, dass Anbieter von KI-Systemen die grundlegenden Verpflichtungen des KI-Gesetzes nicht umgehen können und zur Verantwortung gezogen werden, wenn sie dies versuchen. Wie bereits in einem früheren Bericht zum KI-Gesetz-Omnibus-Vorschlag aufgezeigt, führt das Versäumnis, die Selbstbewertung eines KI-Entwicklers offenzulegen, dazu, dass potenziell gefährliche KI-Systeme unbemerkt und ohne Einschränkungen verbreitet werden. Dies verhindert sowohl bei Regulierungsbehörden als auch bei Anwendern, sich ein fundiertes Urteil oder eine Beurteilung über die KI-Systeme zu bilden, die sie möglicherweise untersuchen oder vermeiden möchten.

Folgen der Streichung der Transparenzpflicht

Die Streichung der Transparenzpflicht wird erhebliche menschliche Kosten verursachen, während sie nur triviale Kosteneinsparungen für KI-Entwickler mit sich bringt. Dies wird die Durchsetzbarkeit des KI-Gesetzes drastisch untergraben und die Risiken für Gesundheit, Sicherheit und grundlegende Rechte verschärfen.

Der vollständige Brief kann hier eingesehen werden.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...