Die EU sollte Druck gegen eine Regulierung von KI unter dem DMA widerstehen

Die EU sollte Forderungen widerstehen, KI unter das DMA zu regulieren

Eine wachsende Zahl europäischer Politiker fordert die EU auf, das Digital Markets Act (DMA) auf neue Industrien auszuweiten. Insbesondere haben Frankreich, Deutschland und die Niederlande eine gemeinsame Erklärung abgegeben, in der sie eine Ausweitung auf Künstliche Intelligenz (KI) und Cloud-Dienste befürworten. Dennoch würde eine Erweiterung des DMA unnötige Einschränkungen für KI-Unternehmen auferlegen, Investitionen abschrecken und die westliche Position im globalen KI-Rennen gegen China schwächen.

Dieser Vorstoß steht im Widerspruch zu den Aussagen führender europäischer Politiker auf dem Paris AI Summit, wo betont wurde, dass übermäßige Regulierung Innovationen ersticken kann. In diesem Kontext sollten europäische Politiker ihre Eile überdenken, KI und Cloud unter das strenge Regelwerk des DMA zu bringen.

Einfluss des DMA auf KI-Dienste

Vorschläge, KI-gesteuerte Dienste als Core Platform Services gemäß Artikel 2(2) des DMA zu klassifizieren, würden KI-Anbieter strengen Verpflichtungen unterwerfen, die für etablierte Gatekeeper konzipiert sind. In der Praxis würde dies einschränken, wie Unternehmen ihre KI-Dienste einsetzen. Beispielsweise könnten die Datenmissbrauchsregeln des DMA die Entwicklung von KI-Modellen einschränken, indem Firmen der Zugriff auf eigene Daten zur Schulung verwehrt wird. Darüber hinaus könnten Interoperabilitätsanforderungen einige KI-Entwickler zwingen, ihren Modellen offenen Zugang zu gewähren, was die Wettbewerbsfähigkeit und Innovation beeinträchtigen würde.

Marktversagen und Regulierung

Bevor das DMA auf KI ausgeweitet wird, muss die EU Gründe haben zu glauben, dass dies mehr Nutzen als Schaden bringen würde. Das DMA hat jedoch nicht die erhofften Vorteile für Verbraucher gebracht. Europäische Internetnutzer erleben bereits eine weniger integrierte Nutzung von Google und aufdringliche Auswahlbildschirme auf Apple- und Android-Geräten.

Darüber hinaus ist KI eine aufstrebende Industrie ohne nachgewiesenes Marktversagen, das eine DMA-Intervention rechtfertigen würde. Der KI-Markt ist äußerst wettbewerbsfähig, mit zahlreichen Unternehmen, die weltweit um Marktanteile kämpfen. Schnell wachsende europäische KI-Startups wie Aleph Alpha in Deutschland und Mistral AI in Frankreich verdeutlichen die Dynamik des Marktes.

Regulierungsüberlappung und bestehende Gesetze

Die EU sollte außerdem ihre bestehenden Wettbewerbsgesetze anwenden, bevor sie neue ex ante-Regulierungen einführt. Der AI Act, der im August 2024 in Kraft trat, enthält bereits Bestimmungen zur Verhinderung von unfairen kommerziellen Praktiken. Zusätzliche DMA-Einschränkungen würden eine unnötige regulatorische Überlappung schaffen, die die Compliance für Unternehmen, die sich bereits durch zahlreiche digitale Regulierungsrahmen navigieren, komplizieren würde.

Empfehlungen für die Regulierung

Anstatt weitere Regeln zu erlassen, sollte Brüssel einen sanften Ansatz zur Behandlung von Wettbewerbsbedenken in der KI verfolgen. Der erste und wichtigste Schritt in dieser Strategie besteht darin, abzuwarten, wie sich die KI-Märkte entwickeln. In diesen dynamischen und disruptiven Industrien löst der Wettbewerb oft viele Probleme von selbst.

Europa hat bereits im Bereich der digitalen Innovation zurückgefallen; es kann sich nicht leisten, den gleichen Fehler bei der KI zu machen. Strenge Regulierungen wie das DMA könnten den aufstrebenden KI-Sektor der EU lähmen und chinesischen Startups wie DeepSeek und Manus einen entscheidenden Vorteil verschaffen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...