Oberflächliche Regulierung von KI: Eine Bedrohung für die Medienfreiheit

Oberflächliche Regulierung von Künstlicher Intelligenz

Im Jahr 2025 sprach die Ministerin für Informationstechnologie und Telekommunikation über die Notwendigkeit einer ethischen KI-Governance auf einer internationalen Konferenz. Diese Äußerungen kamen, als ihre Regierung gerade Änderungen am Gesetz über elektronische Verbrechen verabschiedet hatte, die weithin als Verletzung der Menschenrechte angesehen wurden. Gleichzeitig wurde das umfassende Digital Nation Pakistan Act eingeführt, das darauf abzielte, die digitale öffentliche Infrastruktur voranzutreiben, jedoch ohne jegliche Schutzmaßnahmen für Datenprivatsphäre und Inklusion.

Die Ministerin nannte keine spezifischen Details zu einem ethischen KI-Governance-Rahmen und machte auch keine Andeutungen zu dem AI-Gesetz, das im Senat behandelt wurde. Die Schlagworte rund um die KI-Governance verschleiern oft die wahren Beweggründe hinter diesen Regulierungsaufrufen. Das eigentliche Ziel ist häufig eine größere Kontrolle, insbesondere über die Medien.

Bedrohung durch Künstliche Intelligenz

Die Sorgen über die Bedrohung, die Künstliche Intelligenz für die Medien und unser Informationsökosystem darstellt, haben zugenommen. Die Verbreitung von generativer KI hat diese Bedenken beschleunigt und sie ins öffentliche Bewusstsein gerückt, einschließlich der Politikmacher. Viele haben bereits apokalyptische Vorhersagen über die unkontrollierte Verbreitung von Desinformation und die Verstärkung schädlicher Inhalte gemacht, was zu panischen Aufrufen nach mehr Einschränkungen der Meinungsfreiheit und des Zugangs zu Informationen im Internet geführt hat.

Dennoch zielen die meisten Vorschläge zur Regulierung von KI lediglich darauf ab, die Ergebnisse und Ausgaben von KI oberflächlich zu regulieren, anstatt substantielle Regelungen zu propagieren, die sich auf Transparenz und Rechenschaftspflicht konzentrieren.

Menschenrechte und Transparenz

Es ist unbestreitbar, dass KI der Medienfreiheit und der Meinungsäußerung schadet. Viele Journalisten haben bereits seit einiger Zeit Alarm geschlagen. Die Fähigkeit von KI, inauthentische Inhalte in großem Maßstab zu generieren, und ihre Rolle bei der Verstärkung von Inhalten ist von großer Besorgnis. Dies gilt besonders im Kontext von Pakistan, wo die digitale und mediale Bildung niedrig ist, was die Nutzer anfällig für manipulierte Informationen macht.

Die meisten Regulierungsprojekte konzentrieren sich jedoch auf die Inhaltsregulierung, anstatt sich mit den Feinheiten der Governance von Künstlicher Intelligenz auseinanderzusetzen. Ein Modell zur Regulierung von KI stellt die Menschenrechte, Transparenz und Rechenschaftspflicht in den Mittelpunkt seiner Diskussion.

Unsichtbare Arbeit im Hintergrund

Entstehende Menschenrechtsstandards rund um KI erfordern, dass ihre Entwicklung, Bereitstellung und Nutzung auf transparente Weise erfolgt. Es gibt klare Wege zur Rechenschaft für Schäden, die aus dem Einsatz von KI resultieren. Die potenziellen Schäden von KI sind umfassender als der derzeitige Diskurs über Desinformation vermuten lässt. Sie umfassen auch Bedenken in Bezug auf Technologien wie Gesichtserkennung und vorhersagende Polizeiarbeit, insbesondere wenn sie zur Bereitstellung von wesentlichen und sozialen Dienstleistungen eingesetzt werden.

Darüber hinaus ignoriert ein Großteil der Diskussion über KI-Regulierung die unsichtbare Arbeit, die sie unterstützt – ein Großteil davon stammt von der globalen Mehrheit. Untersuchungen haben ergeben, dass die Entwicklung der meisten KI-Tools auf manueller Datenkennzeichnung basiert, die von ausgelagerten Arbeitskräften aus Ländern wie Pakistan durchgeführt wird. Diese Arbeiter werden oft schlecht bezahlt, sind schädlichen Inhalten ausgesetzt und umfassen auch Kinderarbeit. Die meisten Gespräche über „ethische KI“ ignorieren diese Aspekte völlig und konzentrieren sich lediglich auf die sichtbarsten Manifestationen von KI.

Gesetzgebung und Regulierung

So gibt es Gesetze und vorgeschlagene Regelungen, die darauf abzielen, KI-generierte Inhalte auf vagen Grundlagen wie „Fake News“ oder „nationale Sicherheit“ zu regulieren – bloße Vorwände zur Unterdrückung von Dissens. Die Absicht besteht selten darin, Schaden zu mindern, sondern vielmehr darin, Reden zu regulieren, die den Mächtigen unbequem wären. Es lässt sich nicht leugnen, dass Regierungen berechtigte Bedenken hinsichtlich generativer KI haben, insbesondere in Fällen häufiger falscher Beschuldigungen.

Umfassende Regelungen im Namen der KI sind oft nichts anderes als bequeme Ausreden, um Gesetze zu erlassen, die die Meinungsfreiheit einschränken. Auf die beste Weise können diese Versuche als Regelungsmaßnahmen für eine Technologie gesehen werden, die Gesetzgeber nicht verstehen und sich wenig bemüht haben, besser zu verstehen.

Hoffnung für die Zukunft

Es gibt jedoch Hoffnung. Als das KI-Gesetz zuletzt im November 2024 im Senat behandelt wurde, empfahlen die Ausschussmitglieder und das Ministerium „einen vorsichtigen Ansatz“ und äußerten, dass es möglicherweise verfrüht sei, in dieser Phase einen speziellen KI-Regulator einzurichten, da sich das Ökosystem noch entwickelt. Dieser Aufruf zur Vorsicht und die Anerkennung der damit verbundenen Komplexitäten sind gute Zeichen.

Es wird gehofft, dass diese Weisheit weiterhin vorherrscht. Ein regulatorischer Rahmen, der Gleichheit, Transparenz und Rechenschaftspflicht in den Mittelpunkt stellt und nicht Zensur, ist unerlässlich. Die Regulierung von KI muss die Menschen schützen und nicht zum Schweigen bringen.

More Insights

USA bricht mit UN über globale KI-Regulierung

Die US-Beamten lehnten einen Vorschlag zur Schaffung eines globalen KI-Governance-Rahmens bei der dieswöchigen Generalversammlung der Vereinten Nationen ab, obwohl der Plan von vielen Ländern...

Agentic AI: Risiken und Governance für Unternehmen

In der schnelllebigen Welt der künstlichen Intelligenz wenden sich Unternehmen zunehmend agentischen KI-Systemen zu, die Entscheidungen treffen und Aufgaben autonom ausführen können. Diese...

Die wachsende Rolle von KI als Meinungswächter und die alarmierenden versteckten Vorurteile

Die wachsende Rolle von KI als Meinungsgatekeeper wirft Bedenken hinsichtlich versteckter Vorurteile auf. Eine neue Studie warnt davor, dass subtile Vorurteile in KI-Systemen den öffentlichen Diskurs...

Regulierungsdruck auf KI: Eine neue Ära der Verantwortung

Die aufkommende Welt der Künstlichen Intelligenz (KI) befindet sich an einem kritischen Punkt, da eine Welle von Regulierungsmaßnahmen und rechtlichen Präzedenzfällen einen globalen Wandel hin zu mehr...

Die Auswahl der richtigen KI-Governance-Tools

Mit der beschleunigten Einführung von generativer KI steigen auch die Risiken. Um diese Herausforderungen zu bewältigen, haben wir mit Tokio Marine Holdings und Tokio Marine & Nichido Systems...

UN fördert globale Standards für sichere KI

Die Vereinten Nationen setzen sich dafür ein, einen globalen Konsens über „sichere, geschützte und vertrauenswürdige“ KI zu schaffen, indem sie Richtlinien und technische Standards fördern. Ein neuer...

Die Algorithmenregierung: Wie Datenwissenschaftler die Politik gestalten

In einer fesselnden Diskussion in Singapur sprachen Thomas Roehm von SAS und Frankie Phua von der United Overseas Bank über die Herausforderungen der KI-Regulierung. Ihr Gespräch beleuchtete das...

Vorbereitung von KMUs auf die KI-Regulierungen der EU

Klein- und Mittelunternehmen (KMU) stehen vor erheblichen Herausforderungen durch die KI-Verordnung der EU, insbesondere im Hinblick auf die Einhaltung strenger Vorschriften und potenziell hohe...