Auswirkungen des EU KI-Gesetzes auf Unternehmen und Vereinfachungsansätze

Die Auswirkungen des EU AI Act auf Unternehmen

Der EU AI Act hat bereits weitreichende Auswirkungen auf Unternehmen innerhalb und außerhalb des wirtschaftlichen Blocks. Zu den Auswirkungen zählen zusätzliche Komplexitätsstufen, Anpassungsschwierigkeiten und Compliance-Kosten.

Es gibt jedoch auch einige positive Aspekte. Laut Experten, die in finanziell fokussierten Medien zitiert werden, zeigt die EU eine strenge grenzüberschreitende Durchsetzung gegenüber ausländischen KI-Firmen, die auf ihrem Markt tätig sind, einschließlich der Verhängung von Verboten für Apps und der Einleitung von Ermittlungen wegen Datenschutzes. Diese Durchsetzungsmaßnahmen verdeutlichen, dass die EU besorgt ist über die intransparente Datenverarbeitung, die zu strengeren internationalen Datenübertragungsregeln führen könnte.

Die Auswirkungen des AI Act sind für kleinere europäische KI-Entwickler am größten, da große Technologieunternehmen bereits strenge Kontrollen für ihre KI-Produkte haben. Gleichzeitig wird die Regulierung auch Chancen für Unternehmen schaffen, die sich auf vertrauenswürdige KI, Erklärbarkeit und KI-Sicherheit spezialisiert haben. Große europäische Unternehmen könnten von konformen und regulierungsgetriebenen KI-Lösungen profitieren.

Es bleibt jedoch viel Unsicherheit darüber, wie die umfassendste KI-Regulierung der Welt angewendet und durchgesetzt wird. Die Auswirkungen hängen von der Durchsetzung in den EU-Mitgliedstaaten ab, die möglicherweise nicht gleichwertig sein werden. Der AI Act wird wahrscheinlich auch im Rahmen von Handelsverhandlungen mit den USA diskutiert werden.

Die Überlegung der EU zur Vereinfachung des AI Act

Während der Geschäftssektor die potenziellen Auswirkungen des AI Act diskutiert, haben europäische Bürokraten bereits Überlegungen angestellt, die Regulierung auf der Grundlage von Rückmeldungen aus der Branche zu vereinfachen. Die EU möchte, dass KI das Modell für Innovationen wird und ein Instrument ist, um jedes Unternehmen zu unterstützen, sagte Roberto Viola, Direktor der digitalen Abteilung der Europäischen Kommission, kürzlich.

„Wir sind sehr entschlossen, die Regeln zu vereinfachen – wenn nötig“, sagt Viola. „Wir haben sorgfältig zugehört, dass es ein weiteres Belastung für Unternehmen geben könnte, insbesondere in Bezug auf Berichtspflichten und die Komplexität der Einhaltung einer oder anderer Bestimmungen des AI Act.“

Ein Bereich, der möglicherweise vereinfacht wird, ist die Berichtspflicht. Laut Regelwerk müssen Anbieter und Nutzer von KI-Systemen jede Person, die ihnen ausgesetzt ist, informieren, es sei denn, dies ist aus dem Kontext offensichtlich. Die EU-Mitgliedstaaten werden voraussichtlich nächste Woche Konsultationen zur Vereinfachung des Gesetzes beginnen.

Viola hob auch die Bedeutung von Standards für den Ansatz der EU zur KI hervor, einschließlich solcher, die messbar sind, bewertet werden oder dritte Konformitätsbewertungen durchführen. Technische Standards müssen jedoch noch lange nicht offiziell anerkannt werden.

UK AISI: KI-Tests nicht „ausreichend reif“

Im benachbarten Vereinigten Königreich verfolgt die Regierung einen weniger strengen Ansatz zur Regulierung von KI. Das UK AI Security Institute (UK AISI), die Regierungsbehörde, die für die Sicherheit von KI zuständig ist, erklärt, dass KI-Risikoanalysen eine „aufstrebende Wissenschaft“ sind und nicht ausreichend reif, um Sicherheitszertifikate auszustellen. Die Ansichten wurden diese Woche vom Direktor des Instituts, Oliver Ilott, während des AI Standards Hub Global Summit in London geteilt.

„Die Bewertungen, die wir durchführen, decken nicht jedes Risiko ab, und die Bewertungen sind eine aufstrebende Wissenschaft“, sagt Ilott. „Wir denken, dass es nicht ausreichend reif ist, dass man ein Sicherheitszertifikat ausstellen könnte.“

Derzeit gibt es im Vereinigten Königreich keine Vorschrift, die KI-Modellentwickler verpflichtet, ihre vor der Bereitstellung getesteten Modelle durch Institutionen wie das UK AISI zu testen. Das Institut bietet auch kein Sicherheitszertifikat nach Abschluss an.

Da das Institut keine Tests anordnen kann, basiert die Zusammenarbeit mit Entwicklern auf deren Wunsch, Probleme in der Technologie, die sie erstellt haben, zu entdecken, sagt Ilott. Reife Standards für aktuelle KI-Anwendungen sollten ebenfalls nicht erwartet werden, da sich die Entwickler darauf konzentrieren, noch disruptive Technologien zu entwickeln, fügt er hinzu.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...