Auswirkungen des EU KI-Gesetzes auf Unternehmen und Vereinfachungsansätze

Die Auswirkungen des EU AI Act auf Unternehmen

Der EU AI Act hat bereits weitreichende Auswirkungen auf Unternehmen innerhalb und außerhalb des wirtschaftlichen Blocks. Zu den Auswirkungen zählen zusätzliche Komplexitätsstufen, Anpassungsschwierigkeiten und Compliance-Kosten.

Es gibt jedoch auch einige positive Aspekte. Laut Experten, die in finanziell fokussierten Medien zitiert werden, zeigt die EU eine strenge grenzüberschreitende Durchsetzung gegenüber ausländischen KI-Firmen, die auf ihrem Markt tätig sind, einschließlich der Verhängung von Verboten für Apps und der Einleitung von Ermittlungen wegen Datenschutzes. Diese Durchsetzungsmaßnahmen verdeutlichen, dass die EU besorgt ist über die intransparente Datenverarbeitung, die zu strengeren internationalen Datenübertragungsregeln führen könnte.

Die Auswirkungen des AI Act sind für kleinere europäische KI-Entwickler am größten, da große Technologieunternehmen bereits strenge Kontrollen für ihre KI-Produkte haben. Gleichzeitig wird die Regulierung auch Chancen für Unternehmen schaffen, die sich auf vertrauenswürdige KI, Erklärbarkeit und KI-Sicherheit spezialisiert haben. Große europäische Unternehmen könnten von konformen und regulierungsgetriebenen KI-Lösungen profitieren.

Es bleibt jedoch viel Unsicherheit darüber, wie die umfassendste KI-Regulierung der Welt angewendet und durchgesetzt wird. Die Auswirkungen hängen von der Durchsetzung in den EU-Mitgliedstaaten ab, die möglicherweise nicht gleichwertig sein werden. Der AI Act wird wahrscheinlich auch im Rahmen von Handelsverhandlungen mit den USA diskutiert werden.

Die Überlegung der EU zur Vereinfachung des AI Act

Während der Geschäftssektor die potenziellen Auswirkungen des AI Act diskutiert, haben europäische Bürokraten bereits Überlegungen angestellt, die Regulierung auf der Grundlage von Rückmeldungen aus der Branche zu vereinfachen. Die EU möchte, dass KI das Modell für Innovationen wird und ein Instrument ist, um jedes Unternehmen zu unterstützen, sagte Roberto Viola, Direktor der digitalen Abteilung der Europäischen Kommission, kürzlich.

„Wir sind sehr entschlossen, die Regeln zu vereinfachen – wenn nötig“, sagt Viola. „Wir haben sorgfältig zugehört, dass es ein weiteres Belastung für Unternehmen geben könnte, insbesondere in Bezug auf Berichtspflichten und die Komplexität der Einhaltung einer oder anderer Bestimmungen des AI Act.“

Ein Bereich, der möglicherweise vereinfacht wird, ist die Berichtspflicht. Laut Regelwerk müssen Anbieter und Nutzer von KI-Systemen jede Person, die ihnen ausgesetzt ist, informieren, es sei denn, dies ist aus dem Kontext offensichtlich. Die EU-Mitgliedstaaten werden voraussichtlich nächste Woche Konsultationen zur Vereinfachung des Gesetzes beginnen.

Viola hob auch die Bedeutung von Standards für den Ansatz der EU zur KI hervor, einschließlich solcher, die messbar sind, bewertet werden oder dritte Konformitätsbewertungen durchführen. Technische Standards müssen jedoch noch lange nicht offiziell anerkannt werden.

UK AISI: KI-Tests nicht „ausreichend reif“

Im benachbarten Vereinigten Königreich verfolgt die Regierung einen weniger strengen Ansatz zur Regulierung von KI. Das UK AI Security Institute (UK AISI), die Regierungsbehörde, die für die Sicherheit von KI zuständig ist, erklärt, dass KI-Risikoanalysen eine „aufstrebende Wissenschaft“ sind und nicht ausreichend reif, um Sicherheitszertifikate auszustellen. Die Ansichten wurden diese Woche vom Direktor des Instituts, Oliver Ilott, während des AI Standards Hub Global Summit in London geteilt.

„Die Bewertungen, die wir durchführen, decken nicht jedes Risiko ab, und die Bewertungen sind eine aufstrebende Wissenschaft“, sagt Ilott. „Wir denken, dass es nicht ausreichend reif ist, dass man ein Sicherheitszertifikat ausstellen könnte.“

Derzeit gibt es im Vereinigten Königreich keine Vorschrift, die KI-Modellentwickler verpflichtet, ihre vor der Bereitstellung getesteten Modelle durch Institutionen wie das UK AISI zu testen. Das Institut bietet auch kein Sicherheitszertifikat nach Abschluss an.

Da das Institut keine Tests anordnen kann, basiert die Zusammenarbeit mit Entwicklern auf deren Wunsch, Probleme in der Technologie, die sie erstellt haben, zu entdecken, sagt Ilott. Reife Standards für aktuelle KI-Anwendungen sollten ebenfalls nicht erwartet werden, da sich die Entwickler darauf konzentrieren, noch disruptive Technologien zu entwickeln, fügt er hinzu.

More Insights

KI-Ingenieure vs. Verantwortungsvolle KI-Ingenieure: Intelligenter bauen oder sicherer gestalten

Künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht, was AI-Ingenieure an die Spitze der Innovation stellt. Gleichzeitig bringt diese Macht Verantwortung mit sich, da Fragen...

Verantwortungsbewusste KI: Eine neue Notwendigkeit

Dr. Anna Zeiter betont, dass verantwortungsvolle KI nicht nur ein Schlagwort ist, sondern eine grundlegende Notwendigkeit. Sie hebt hervor, dass Vertrauen und Verantwortlichkeit entscheidend sind, um...

KI-Integration in Unternehmen: Compliance im Fokus

Künstliche Intelligenz soll Unternehmen schneller, intelligenter und wettbewerbsfähiger machen, aber die meisten Projekte scheitern. Der Cloud Security Alliance (CSA) zufolge liegt das Problem darin...

Erhalt von generativen KI-Inhalten: Rechtliche und organisatorische Herausforderungen

Generative KI-Tools, die Texte und Medien basierend auf den Daten erstellen, mit denen sie trainiert wurden, werfen rechtliche Bedenken hinsichtlich Datenschutz, Datensicherheit und Privilegien auf...

Verantwortungsvolles KI-Management: Prinzipien und Vorteile

Künstliche Intelligenz verändert, wie wir leben und arbeiten, weshalb es wichtig ist, sie auf die richtige Weise zu nutzen. Verantwortliche KI bedeutet, KI zu schaffen und zu verwenden, die fair...

Vertrauenswürdige KI: Erfolgsfaktor für Unternehmen im Zeitalter der Innovation

In den letzten zwanzig Jahren hat sich die Abhängigkeit von künstlicher Intelligenz (KI) zur Entscheidungsfindung in Unternehmen stark entwickelt. Um in diesem neuen Modell effektiv zu arbeiten...

KI-Regulierung in Spanien: Fortschritte und Herausforderungen

Spanien ist Vorreiter in der KI-Governance mit dem ersten KI-Regulator Europas (AESIA) und einem bereits aktiven regulatorischen Sandbox. Zudem wird ein nationaler KI-Gesetzentwurf vorbereitet, der...

Globale Regulierung von KI: Ein Überblick über Israel

Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und ist zunehmend in das öffentliche Bewusstsein gerückt. Regierungen und Aufsichtsbehörden weltweit müssen schnell...

KI im Glücksspiel: Chancen und Herausforderungen der Regulierung

Der Einsatz von Künstlicher Intelligenz (KI) im Glücksspielsektor bringt sowohl Chancen als auch Risiken mit sich, da die regulatorischen Anforderungen steigen und die Haftungsrisiken zunehmen...