Auswirkungen des EU KI-Gesetzes auf Unternehmen und Vereinfachungsansätze

Die Auswirkungen des EU AI Act auf Unternehmen

Der EU AI Act hat bereits weitreichende Auswirkungen auf Unternehmen innerhalb und außerhalb des wirtschaftlichen Blocks. Zu den Auswirkungen zählen zusätzliche Komplexitätsstufen, Anpassungsschwierigkeiten und Compliance-Kosten.

Es gibt jedoch auch einige positive Aspekte. Laut Experten, die in finanziell fokussierten Medien zitiert werden, zeigt die EU eine strenge grenzüberschreitende Durchsetzung gegenüber ausländischen KI-Firmen, die auf ihrem Markt tätig sind, einschließlich der Verhängung von Verboten für Apps und der Einleitung von Ermittlungen wegen Datenschutzes. Diese Durchsetzungsmaßnahmen verdeutlichen, dass die EU besorgt ist über die intransparente Datenverarbeitung, die zu strengeren internationalen Datenübertragungsregeln führen könnte.

Die Auswirkungen des AI Act sind für kleinere europäische KI-Entwickler am größten, da große Technologieunternehmen bereits strenge Kontrollen für ihre KI-Produkte haben. Gleichzeitig wird die Regulierung auch Chancen für Unternehmen schaffen, die sich auf vertrauenswürdige KI, Erklärbarkeit und KI-Sicherheit spezialisiert haben. Große europäische Unternehmen könnten von konformen und regulierungsgetriebenen KI-Lösungen profitieren.

Es bleibt jedoch viel Unsicherheit darüber, wie die umfassendste KI-Regulierung der Welt angewendet und durchgesetzt wird. Die Auswirkungen hängen von der Durchsetzung in den EU-Mitgliedstaaten ab, die möglicherweise nicht gleichwertig sein werden. Der AI Act wird wahrscheinlich auch im Rahmen von Handelsverhandlungen mit den USA diskutiert werden.

Die Überlegung der EU zur Vereinfachung des AI Act

Während der Geschäftssektor die potenziellen Auswirkungen des AI Act diskutiert, haben europäische Bürokraten bereits Überlegungen angestellt, die Regulierung auf der Grundlage von Rückmeldungen aus der Branche zu vereinfachen. Die EU möchte, dass KI das Modell für Innovationen wird und ein Instrument ist, um jedes Unternehmen zu unterstützen, sagte Roberto Viola, Direktor der digitalen Abteilung der Europäischen Kommission, kürzlich.

„Wir sind sehr entschlossen, die Regeln zu vereinfachen – wenn nötig“, sagt Viola. „Wir haben sorgfältig zugehört, dass es ein weiteres Belastung für Unternehmen geben könnte, insbesondere in Bezug auf Berichtspflichten und die Komplexität der Einhaltung einer oder anderer Bestimmungen des AI Act.“

Ein Bereich, der möglicherweise vereinfacht wird, ist die Berichtspflicht. Laut Regelwerk müssen Anbieter und Nutzer von KI-Systemen jede Person, die ihnen ausgesetzt ist, informieren, es sei denn, dies ist aus dem Kontext offensichtlich. Die EU-Mitgliedstaaten werden voraussichtlich nächste Woche Konsultationen zur Vereinfachung des Gesetzes beginnen.

Viola hob auch die Bedeutung von Standards für den Ansatz der EU zur KI hervor, einschließlich solcher, die messbar sind, bewertet werden oder dritte Konformitätsbewertungen durchführen. Technische Standards müssen jedoch noch lange nicht offiziell anerkannt werden.

UK AISI: KI-Tests nicht „ausreichend reif“

Im benachbarten Vereinigten Königreich verfolgt die Regierung einen weniger strengen Ansatz zur Regulierung von KI. Das UK AI Security Institute (UK AISI), die Regierungsbehörde, die für die Sicherheit von KI zuständig ist, erklärt, dass KI-Risikoanalysen eine „aufstrebende Wissenschaft“ sind und nicht ausreichend reif, um Sicherheitszertifikate auszustellen. Die Ansichten wurden diese Woche vom Direktor des Instituts, Oliver Ilott, während des AI Standards Hub Global Summit in London geteilt.

„Die Bewertungen, die wir durchführen, decken nicht jedes Risiko ab, und die Bewertungen sind eine aufstrebende Wissenschaft“, sagt Ilott. „Wir denken, dass es nicht ausreichend reif ist, dass man ein Sicherheitszertifikat ausstellen könnte.“

Derzeit gibt es im Vereinigten Königreich keine Vorschrift, die KI-Modellentwickler verpflichtet, ihre vor der Bereitstellung getesteten Modelle durch Institutionen wie das UK AISI zu testen. Das Institut bietet auch kein Sicherheitszertifikat nach Abschluss an.

Da das Institut keine Tests anordnen kann, basiert die Zusammenarbeit mit Entwicklern auf deren Wunsch, Probleme in der Technologie, die sie erstellt haben, zu entdecken, sagt Ilott. Reife Standards für aktuelle KI-Anwendungen sollten ebenfalls nicht erwartet werden, da sich die Entwickler darauf konzentrieren, noch disruptive Technologien zu entwickeln, fügt er hinzu.

More Insights

Gesundheits-AI: Verantwortung und Innovation im Wandel

Die regulatorische Landschaft für KI hat in den letzten sechs Monaten monumentale Veränderungen erfahren, wobei die Rhetorik, die Regulierung als Hindernis für Innovation zu betrachten, stärker...

Widerstand gegen AI-Grundgesetz: Industrie fordert Verzögerung wegen unklarer Regelungen

Die Branche hat Bedenken geäußert, dass die vagen regulatorischen Standards des AI-Grundgesetzes das Wachstum der KI-Industrie behindern könnten. Kürzlich schlug Huang Jeong-a, ein Mitglied der...

KI im Marketing: GDPR und der EU AI Act verstehen

Als Vermarkter oder Geschäftsinhaber wissen wir, wie herausfordernd es sein kann, das richtige Publikum zur richtigen Zeit zu erreichen. Während die Nutzung persönlicher Daten für gezielte Werbung...

Die Risikopyramide des EU AI Gesetzes

Eines der bestimmenden Merkmale des EU AI Act ist sein risikobasierter Ansatz. KI-Systeme werden nicht gleich behandelt – wie sie reguliert werden, hängt von dem Risiko ab, das sie für Sicherheit...

Agentic AI: Bestehende Regeln für neue Technologien nutzen

AI-Unternehmen behaupten, dass bestehende Sicherheitsprozesse und bestehende staatliche sowie bundesstaatliche Vorschriften Unternehmen und Verbraucher schützen können, die mit agentic AI beginnen...

EU verhängt Verbot für KI-gestützte Software in Online-Meetings

Die Europäische Kommission hat überraschend die Nutzung von KI-gestützten virtuellen Assistenten während Online-Meetings verboten. Diese Entscheidung könnte mit Bedenken hinsichtlich Datenschutz...

Vertrauen Gestalten: Produktdesign für Verantwortungsvolle KI

Die rasante Integration von künstlicher Intelligenz (KI) in die alltägliche Technologie bringt enorme Chancen sowie bedeutende ethische Herausforderungen mit sich. Produktdesigner stehen an der...

Wege zur KI-Regulierung und technischen Interoperabilität

Die gegenwärtige Governance-Landschaft der KI ähnelt einem Flickenteppich aus fragmentierten Vorschriften und Standards, die die globale Einführung von KI-Systemen zunehmend erschweren. Diese...