Unklare Vorgaben und vage Begriffe im AI Basic Act lassen Unternehmen im Ungewissen
Das überarbeitete Grundgesetz für die Entwicklung von Künstlicher Intelligenz (KI) und die Schaffung einer Vertrauensbasis, bekannt als AI Basic Act, trat am 22. Januar in Kraft und gilt als das weltweit erste umfassende rechtliche Rahmenwerk für KI.
Mit den neuen breiten Verpflichtungen für Unternehmen, die KI-Technologien entwickeln oder implementieren, sind die Akteure der Branche gefordert, die neuen Regelungen zu interpretieren. Es gibt wachsende Bedenken hinsichtlich der vagen Standards und der Unsicherheit über die geschäftlichen Risiken, die sie auslösen könnten.
Regulatorische Rahmenbedingungen
Die Vorschriften zielen darauf ab, KI-Innovation mit Sicherheit und öffentlichem Vertrauen in KI in Einklang zu bringen. Ein nationaler Governance-Rahmen wird um einen nationalen KI-Ausschuss gebildet, der vom Präsidenten geleitet wird. Es wird alle drei Jahre ein KI-Masterplan gefordert, und die Befugnisse des Präsidialausschusses sowie die staatliche Unterstützung für Forschung und Entwicklung werden gestärkt.
Auf der Unternehmensseite verpflichtet das Gesetz zur Kennzeichnung von KI-generierten Inhalten und zur Implementierung von Transparenzmaßnahmen wie Wasserzeichen. Außerdem werden Risikokontrollen für Systeme eingeführt, die als „hochwirksam“ eingestuft werden.
Herausforderungen bei der Umsetzung
Mit dem Beginn der ersten Geschäftswoche des überarbeiteten Gesetzes stehen Unternehmen vor unklaren Definitionen und Standards, was zu Befürchtungen führt, dass dies die Innovation bremsen und die Einhaltung erschweren könnte.
Die Verpflichtung zur Transparenz bleibt jedoch unklar. Während das Gesetz Anbieter verpflichtet, Benutzer darüber zu informieren, wenn Inhalte von KI generiert werden, sind die praktischen Details oft unvollständig, insbesondere in Bezug darauf, wann ein Wasserzeichen erforderlich ist und wer es anbringen muss.
Unternehmen, die generative Werkzeuge nutzen, werden nicht als KI-Dienstleister definiert und sind daher von der Kennzeichnungspflicht befreit, was zu rechtlichen Grauzonen führt.
Definition von hochwirksamer KI
Ein weiterer umstrittener Punkt ist die Bestimmung hochwirksamer KI-Systeme, die als solche definiert sind, die einen signifikanten Einfluss auf das menschliche Leben, die Sicherheit oder grundlegende Rechte haben könnten. Das Gesetz sieht zusätzliche Schutzmaßnahmen für hochwirksame Anwendungen vor, doch die gesetzgeberischen Vorgaben und frühen Richtlinien definieren keine quantitativen Schwellenwerte.
Vage Begriffe wie „signifikanter Einfluss“ und „Risiko von Schäden“ lassen viel Raum für die Beurteilung durch Regulierungsbehörden, was die Investitionsplanung für großangelegte KI-Implementierungen erschwert.
Fazit
Die aktuelle Übergangszeit sollte genutzt werden, um das Gesetz zu verfeinern. Unternehmen haben begonnen, ihre interne Governance umzustellen, um sich auf die neuen Regelungen vorzubereiten. Große Telekommunikationsunternehmen überprüfen derzeit ihre Compliance-Rahmenwerke und richten interne Risikomanagement-Protokolle ein.
Die Einführung von internen KI-Governance- und Risikomanagementrahmen durch Technologieunternehmen zeigt, dass die Branche bemüht ist, sich auf die neuen Anforderungen einzustellen, um die Innovationsfähigkeit nicht zu gefährden.