Lücken im EU-Aktionsplan für KI: Herausforderungen für Datenschutz und Compliance

Die Lücken im Datenschutz und in den Compliance-Regeln des EU-Aktionsplans für KI

Der europäische Kommission wurde am 9. April 2025 der AI Continent Action Plan vorgestellt, der eine industrielle Strategie zur Steigerung der KI-Fähigkeiten in der EU umreißt. Der Plan konzentriert sich auf den Aufbau von Recheninfrastruktur, die Verbesserung des Zugangs zu qualitativ hochwertigen Daten, die Unterstützung der Einführung in verschiedenen Sektoren und die Entwicklung von KI-Talenten.

Obwohl die öffentlichen und privaten Visionen übereinstimmen, fallen beim Vergleich mit den rechtlichen Rahmenbedingungen der EU, insbesondere dem AI Act und der Allgemeinen Datenschutzverordnung (GDPR), erhebliche politische Lücken auf.

Infrastruktur im Fokus, aber die Umsetzung bleibt vage

Die Kommission möchte die Rechenkapazität Europas durch KI-Fabriken und größere Gigafabriken ausbauen, die jeweils für die Unterbringung von 100.000 hochmodernen KI-Chips ausgelegt sind. Diese Einrichtungen sollen KI-Startups und Forschungsgemeinschaften in der gesamten Union unterstützen. Die InvestAI-Initiative in Höhe von 20 Milliarden Euro wird dieses Vorhaben finanzieren.

OpenAI schlägt auch eine signifikante Steigerung der Rechenkapazität vor, mit dem Ziel einer 300%-Steigerung bis 2030, und verknüpft dies ausdrücklich mit sauberer Energie und Nachhaltigkeit. Der Aktionsplan liefert jedoch noch keine Details dazu, wie diese datenschweren Gigafabriken ihren Energieverbrauch verwalten oder einen Zeitplan für die Umsetzung bereitstellen werden.

Datenzugriffsziele im Konflikt mit bestehenden Datenschutzregeln

Sowohl der Aktionsplan als auch OpenAI sind sich einig, dass der Zugang zu nutzbaren, qualitativ hochwertigen Daten entscheidend ist. Die Kommission möchte Datenlabore einrichten und eine Datenunion-Strategie einführen, um Datensätze aus verschiedenen Sektoren zusammenzuführen. OpenAI schlägt KI-Datenräume vor, die Nutzen, Datenschutz und rechtliche Klarheit in Einklang bringen.

Das Problem besteht jedoch darin, dass die aktualisierte GDPR strenge Einschränkungen für die Wiederverwendung von Daten, insbesondere von personenbezogenen Daten, auferlegt. Selbst anonymisierte Daten bringen rechtliche Unsicherheiten mit sich, abhängig davon, wie sie behandelt werden. Der Aktionsplan erklärt nicht, wie diese neuen Dateninitiativen im Einklang mit den bestehenden Datenschutzregeln stehen werden, und es ist keine rechtliche Brücke in Sicht.

Kein klarer Weg zwischen AI Act und GDPR

Derzeit operieren der AI Act und die GDPR parallel, verbinden sich jedoch nicht. Der AI Act konzentriert sich auf die Regulierung von hochriskanten KI-Systemen, während die GDPR behandelt, wie personenbezogene Daten verwendet werden, einschließlich KI-gesteuerten Profiling und automatisierten Entscheidungen. Für Entwickler, die Systeme erstellen, die unter beide Regelwerke fallen, gibt es keine klare Anleitung, wie beide Regelungen erfüllt werden können.

Diese mangelnde Koordination erschwert die Compliance und schafft Unsicherheit für alle, die in der EU tätig sind.

Startups werden erwähnt, aber die Unterstützung bleibt begrenzt

Der Aktionsplan und die Reformen der GDPR sprechen beide darüber, die Lasten für kleine Unternehmen zu verringern. Es gibt Versprechungen für „vereinfachte Compliance“ und weniger Papierkram für KMUs. In der Praxis bestehen diese Unterstützungen jedoch meist aus Dokumentationen und Helpdesks, nicht aus Finanzierungen oder rechtlicher Unterstützung.

OpenAI weist darauf hin, dass diese Arten von Beratungsleistungen für Startups, insbesondere solche, die hochriskante oder grundlegende Modelle entwickeln, selten ausreichen. Es wird eine gezielte rechtliche Unterstützung und ein einfacherer Zugang zu öffentlichen Mitteln vorgeschlagen, um es kleineren Akteuren zu ermöglichen, in regulierten Umgebungen zu agieren.

Grundlagenmodelle passen nicht in das aktuelle rechtliche Modell

Der AI Act klassifiziert KI-Systeme nach Risikostufen zum Zeitpunkt ihrer Erstellung. Dies funktioniert jedoch nicht gut für Grundlagenmodelle, die als allgemeine Modelle konzipiert sind und sich basierend darauf weiterentwickeln, wie sie von Menschen verfeinert oder eingesetzt werden. Diese Modelle können nach der Bereitstellung hochriskant werden, doch das Gesetz berücksichtigt das nicht.

OpenAI fordert adaptive Regulierung und Sandbox-Umgebungen, die es politischen Entscheidungsträgern ermöglichen, diese Modelle während ihrer Nutzung zu überwachen. Der Aktionsplan und die Überarbeitung der GDPR greifen dieses Thema jedoch nicht auf.

Warum das wichtig ist

Die europäische Kommission und OpenAI haben beide eine klare Vision davon, wie die KI-Entwicklung in Europa aussehen sollte. Sie sind sich einig über die Infrastruktur, die Notwendigkeit des Datenzugangs und die Rolle einer verantwortungsvollen Regulierung. Diese Übereinstimmung hat jedoch noch nicht ihren Weg in den rechtlichen Rahmen gefunden.

Lücken in der Durchsetzung, Datenschutzregeln, die mit Innovationen in Konflikt stehen, und kein klarer Weg zur Regulierung von Grundlagenmodellen machen es schwieriger, die KI-Pläne der EU in die Praxis umzusetzen. Für Indien und andere, die noch an der Ausarbeitung von KI-Politiken arbeiten, ist dies eine Erinnerung daran, was passiert, wenn Infrastruktur und Regulierung isoliert entwickelt werden.

Hinweis: Die Überschrift und der vierte Absatz wurden am 14.04.2025 um 15:03 Uhr aufgrund redaktioneller Eingaben zur Klarheit bearbeitet.

More Insights

Verantwortungsbewusster Umgang mit KI: Schutz vertraulicher Informationen

Es ist wichtig, sorgfältig zu überlegen, welche Informationen wir mit KI-gestützten Tools teilen, insbesondere wenn es um vertrauliche Informationen geht. Unternehmen sollten sicherstellen, dass sie...

Colorados KI-Gesetz: Herausforderungen und Unsicherheiten für Arbeitgeber

Colorados bahnbrechendes Gesetz zur Regulierung von Künstlicher Intelligenz spiegelt wichtige Ziele von Fairness und Transparenz wider. Das Scheitern der Annahme von SB318 hinterlässt jedoch...

KI-Regulierung: Herausforderungen und Lösungen im globalen Kontext

Die Diskussion befasst sich mit den Herausforderungen der Einhaltung von Vorschriften im Bereich der künstlichen Intelligenz. Experten werden praktische Strategien zur Einhaltung der Vorschriften in...

Bundesregierung und KI: Erfolgreiche Governance für Innovation

Künstliche Intelligenz (KI) entwickelt sich schnell weiter, und viele Bundesbehörden haben Schwierigkeiten, mit der Governance Schritt zu halten. Die Lösung besteht nicht darin, die Innovation zu...

KI-Governance: Schlüssel zum Geschäftserfolg

Künstliche Intelligenz ist kein futuristisches Konzept mehr, sondern ein grundlegender Faktor für Unternehmen weltweit. Ein AI Center of Excellence spielt eine Schlüsselrolle bei der effektiven...

Zwei neue KI-Gesetze: Unterschiedliche Ansätze im Vergleich

In Colorado wurden alle vorgeschlagenen Änderungen zum Colorado AI Act abgelehnt, während Utah neue Änderungen verabschiedete, die einen Schutzraum für KI-gestützte Chatbots im Bereich der psychischen...

EU AI-Gesetz: Durch Finanzierungsmangel und Fachkräftemangel gefährdet

Die Durchsetzung des EU AI Acts wird durch einen Mangel an Finanzierung und Fachwissen behindert, sagte der digitale Politikberater des Europäischen Parlaments, Kai Zenner. Viele Mitgliedstaaten...

Verbesserung der KI-Governance an Universitäten

Mit der zunehmenden Integration von künstlicher Intelligenz (KI) in die Hochschulbildung müssen Universitäten robuste Governance-Praktiken einführen, um sicherzustellen, dass KI verantwortungsvoll...

AI-Innovation und Sicherheit im Gleichgewicht

Der Kongressabgeordnete Ted Lieu steht an der Spitze einer wichtigen Mission: Wie können wir die transformative Kraft der künstlichen Intelligenz nutzen, ohne Chaos zu entfesseln? Er betont die...