Die Auswirkungen des EU AI Act auf Unternehmen
Der EU AI Act hat bereits weitreichende Auswirkungen auf Unternehmen innerhalb und außerhalb des wirtschaftlichen Blocks. Zu den Auswirkungen zählen zusätzliche Komplexitätsstufen, Anpassungsschwierigkeiten und Compliance-Kosten.
Es gibt jedoch auch einige positive Aspekte. Laut Experten, die in finanziell fokussierten Medien zitiert werden, zeigt die EU eine strenge grenzüberschreitende Durchsetzung gegenüber ausländischen KI-Firmen, die auf ihrem Markt tätig sind, einschließlich der Verhängung von Verboten für Apps und der Einleitung von Ermittlungen wegen Datenschutzes. Diese Durchsetzungsmaßnahmen verdeutlichen, dass die EU besorgt ist über die intransparente Datenverarbeitung, die zu strengeren internationalen Datenübertragungsregeln führen könnte.
Die Auswirkungen des AI Act sind für kleinere europäische KI-Entwickler am größten, da große Technologieunternehmen bereits strenge Kontrollen für ihre KI-Produkte haben. Gleichzeitig wird die Regulierung auch Chancen für Unternehmen schaffen, die sich auf vertrauenswürdige KI, Erklärbarkeit und KI-Sicherheit spezialisiert haben. Große europäische Unternehmen könnten von konformen und regulierungsgetriebenen KI-Lösungen profitieren.
Es bleibt jedoch viel Unsicherheit darüber, wie die umfassendste KI-Regulierung der Welt angewendet und durchgesetzt wird. Die Auswirkungen hängen von der Durchsetzung in den EU-Mitgliedstaaten ab, die möglicherweise nicht gleichwertig sein werden. Der AI Act wird wahrscheinlich auch im Rahmen von Handelsverhandlungen mit den USA diskutiert werden.
Die Überlegung der EU zur Vereinfachung des AI Act
Während der Geschäftssektor die potenziellen Auswirkungen des AI Act diskutiert, haben europäische Bürokraten bereits Überlegungen angestellt, die Regulierung auf der Grundlage von Rückmeldungen aus der Branche zu vereinfachen. Die EU möchte, dass KI das Modell für Innovationen wird und ein Instrument ist, um jedes Unternehmen zu unterstützen, sagte Roberto Viola, Direktor der digitalen Abteilung der Europäischen Kommission, kürzlich.
„Wir sind sehr entschlossen, die Regeln zu vereinfachen – wenn nötig“, sagt Viola. „Wir haben sorgfältig zugehört, dass es ein weiteres Belastung für Unternehmen geben könnte, insbesondere in Bezug auf Berichtspflichten und die Komplexität der Einhaltung einer oder anderer Bestimmungen des AI Act.“
Ein Bereich, der möglicherweise vereinfacht wird, ist die Berichtspflicht. Laut Regelwerk müssen Anbieter und Nutzer von KI-Systemen jede Person, die ihnen ausgesetzt ist, informieren, es sei denn, dies ist aus dem Kontext offensichtlich. Die EU-Mitgliedstaaten werden voraussichtlich nächste Woche Konsultationen zur Vereinfachung des Gesetzes beginnen.
Viola hob auch die Bedeutung von Standards für den Ansatz der EU zur KI hervor, einschließlich solcher, die messbar sind, bewertet werden oder dritte Konformitätsbewertungen durchführen. Technische Standards müssen jedoch noch lange nicht offiziell anerkannt werden.
UK AISI: KI-Tests nicht „ausreichend reif“
Im benachbarten Vereinigten Königreich verfolgt die Regierung einen weniger strengen Ansatz zur Regulierung von KI. Das UK AI Security Institute (UK AISI), die Regierungsbehörde, die für die Sicherheit von KI zuständig ist, erklärt, dass KI-Risikoanalysen eine „aufstrebende Wissenschaft“ sind und nicht ausreichend reif, um Sicherheitszertifikate auszustellen. Die Ansichten wurden diese Woche vom Direktor des Instituts, Oliver Ilott, während des AI Standards Hub Global Summit in London geteilt.
„Die Bewertungen, die wir durchführen, decken nicht jedes Risiko ab, und die Bewertungen sind eine aufstrebende Wissenschaft“, sagt Ilott. „Wir denken, dass es nicht ausreichend reif ist, dass man ein Sicherheitszertifikat ausstellen könnte.“
Derzeit gibt es im Vereinigten Königreich keine Vorschrift, die KI-Modellentwickler verpflichtet, ihre vor der Bereitstellung getesteten Modelle durch Institutionen wie das UK AISI zu testen. Das Institut bietet auch kein Sicherheitszertifikat nach Abschluss an.
Da das Institut keine Tests anordnen kann, basiert die Zusammenarbeit mit Entwicklern auf deren Wunsch, Probleme in der Technologie, die sie erstellt haben, zu entdecken, sagt Ilott. Reife Standards für aktuelle KI-Anwendungen sollten ebenfalls nicht erwartet werden, da sich die Entwickler darauf konzentrieren, noch disruptive Technologien zu entwickeln, fügt er hinzu.