Auswirkungen des EU KI-Gesetzes auf Unternehmen und Vereinfachungsansätze

Die Auswirkungen des EU AI Act auf Unternehmen

Der EU AI Act hat bereits weitreichende Auswirkungen auf Unternehmen innerhalb und außerhalb des wirtschaftlichen Blocks. Zu den Auswirkungen zählen zusätzliche Komplexitätsstufen, Anpassungsschwierigkeiten und Compliance-Kosten.

Es gibt jedoch auch einige positive Aspekte. Laut Experten, die in finanziell fokussierten Medien zitiert werden, zeigt die EU eine strenge grenzüberschreitende Durchsetzung gegenüber ausländischen KI-Firmen, die auf ihrem Markt tätig sind, einschließlich der Verhängung von Verboten für Apps und der Einleitung von Ermittlungen wegen Datenschutzes. Diese Durchsetzungsmaßnahmen verdeutlichen, dass die EU besorgt ist über die intransparente Datenverarbeitung, die zu strengeren internationalen Datenübertragungsregeln führen könnte.

Die Auswirkungen des AI Act sind für kleinere europäische KI-Entwickler am größten, da große Technologieunternehmen bereits strenge Kontrollen für ihre KI-Produkte haben. Gleichzeitig wird die Regulierung auch Chancen für Unternehmen schaffen, die sich auf vertrauenswürdige KI, Erklärbarkeit und KI-Sicherheit spezialisiert haben. Große europäische Unternehmen könnten von konformen und regulierungsgetriebenen KI-Lösungen profitieren.

Es bleibt jedoch viel Unsicherheit darüber, wie die umfassendste KI-Regulierung der Welt angewendet und durchgesetzt wird. Die Auswirkungen hängen von der Durchsetzung in den EU-Mitgliedstaaten ab, die möglicherweise nicht gleichwertig sein werden. Der AI Act wird wahrscheinlich auch im Rahmen von Handelsverhandlungen mit den USA diskutiert werden.

Die Überlegung der EU zur Vereinfachung des AI Act

Während der Geschäftssektor die potenziellen Auswirkungen des AI Act diskutiert, haben europäische Bürokraten bereits Überlegungen angestellt, die Regulierung auf der Grundlage von Rückmeldungen aus der Branche zu vereinfachen. Die EU möchte, dass KI das Modell für Innovationen wird und ein Instrument ist, um jedes Unternehmen zu unterstützen, sagte Roberto Viola, Direktor der digitalen Abteilung der Europäischen Kommission, kürzlich.

„Wir sind sehr entschlossen, die Regeln zu vereinfachen – wenn nötig“, sagt Viola. „Wir haben sorgfältig zugehört, dass es ein weiteres Belastung für Unternehmen geben könnte, insbesondere in Bezug auf Berichtspflichten und die Komplexität der Einhaltung einer oder anderer Bestimmungen des AI Act.“

Ein Bereich, der möglicherweise vereinfacht wird, ist die Berichtspflicht. Laut Regelwerk müssen Anbieter und Nutzer von KI-Systemen jede Person, die ihnen ausgesetzt ist, informieren, es sei denn, dies ist aus dem Kontext offensichtlich. Die EU-Mitgliedstaaten werden voraussichtlich nächste Woche Konsultationen zur Vereinfachung des Gesetzes beginnen.

Viola hob auch die Bedeutung von Standards für den Ansatz der EU zur KI hervor, einschließlich solcher, die messbar sind, bewertet werden oder dritte Konformitätsbewertungen durchführen. Technische Standards müssen jedoch noch lange nicht offiziell anerkannt werden.

UK AISI: KI-Tests nicht „ausreichend reif“

Im benachbarten Vereinigten Königreich verfolgt die Regierung einen weniger strengen Ansatz zur Regulierung von KI. Das UK AI Security Institute (UK AISI), die Regierungsbehörde, die für die Sicherheit von KI zuständig ist, erklärt, dass KI-Risikoanalysen eine „aufstrebende Wissenschaft“ sind und nicht ausreichend reif, um Sicherheitszertifikate auszustellen. Die Ansichten wurden diese Woche vom Direktor des Instituts, Oliver Ilott, während des AI Standards Hub Global Summit in London geteilt.

„Die Bewertungen, die wir durchführen, decken nicht jedes Risiko ab, und die Bewertungen sind eine aufstrebende Wissenschaft“, sagt Ilott. „Wir denken, dass es nicht ausreichend reif ist, dass man ein Sicherheitszertifikat ausstellen könnte.“

Derzeit gibt es im Vereinigten Königreich keine Vorschrift, die KI-Modellentwickler verpflichtet, ihre vor der Bereitstellung getesteten Modelle durch Institutionen wie das UK AISI zu testen. Das Institut bietet auch kein Sicherheitszertifikat nach Abschluss an.

Da das Institut keine Tests anordnen kann, basiert die Zusammenarbeit mit Entwicklern auf deren Wunsch, Probleme in der Technologie, die sie erstellt haben, zu entdecken, sagt Ilott. Reife Standards für aktuelle KI-Anwendungen sollten ebenfalls nicht erwartet werden, da sich die Entwickler darauf konzentrieren, noch disruptive Technologien zu entwickeln, fügt er hinzu.

More Insights

G7-Gipfel verpasst Chance für globale KI-Governance

Die G7-Führungskräfte haben bei ihrem Treffen in Alberta, Kanada, versäumt, die wichtige Thematik der Regulierung von Künstlicher Intelligenz (KI) umfassend zu behandeln. Stattdessen lag der...

Afrika gestaltet eine souveräne Zukunft der KI-Governance

Afrikanische Führer beim Internet Governance Forum (IGF) 2025 forderten dringende Maßnahmen zur Schaffung souveräner und ethischer KI-Systeme, die auf lokale Bedürfnisse zugeschnitten sind. Über 1.000...

Top 10 Herausforderungen bei KI-Regulierungen und Compliance

Mit der Entwicklung von KI weltweit wird es zunehmend schwieriger, effektive Vorschriften zu implementieren. Die EU führt mit ihrem KI-Gesetz, das strenge Verpflichtungen für hochriskante...

Chinas Weg zur verkörperten KI

Der Wettbewerb zwischen den USA und China im Bereich Künstliche Intelligenz wird als die entscheidende technologische Rivalität unserer Zeit angesehen. Während die USA Vorteile in der...

Workday setzt Maßstäbe für verantwortungsbewusste KI mit dualen Governance-Akkreditierungen

Workday hat zwei Drittanbieter-Akkreditierungen für sein KI-Governance-Programm erhalten, einschließlich der ISO 42001. Diese Anerkennung bekräftigt das Engagement des Unternehmens für den Aufbau...

Ethische Standards für KI im Schatten des US-China-Technologiekonflikts

Inmitten der wachsenden Rivalität zwischen den USA und China drängt eine UN-Agentur auf globale Standards für die Ethik von KI. UNESCO hielt das dritte Globale Forum zur Ethik von Künstlicher...

EU AI-Gesetz: Sicherheit und Verantwortung im Fokus

Der EU AI Act stellt strenge Anforderungen an Organisationen, um die sichere Bereitstellung von KI und den Schutz sensibler Daten zu gewährleisten. Zscaler DSPM spielt eine entscheidende Rolle bei der...

Gesetzesentwurf zum Verbot von KI aus feindlichen Nationen

Eine parteiübergreifende Gesetzesvorlage zielt darauf ab, die Nutzung von KI aus China, Russland, Iran und Nordkorea in Bundesbehörden zu verbieten. Das Gesetz, bekannt als "No Adversarial AI Act"...