Reaktion der Anbieter auf den EU KI-Gesetz

Wie Kanalanbieter auf das EU AI-Gesetz reagieren

Seit Inkrafttreten des EU AI-Gesetzes hat sich die Diskussion über KI-Innovation im IT-Kanal mit größeren Fragen zu Compliance und Vertrauen vermischt. Für Wiederverkäufer, MSPs und Partner beinhalten die Gespräche, wie neue rechtliche Anforderungen erfüllt, Verantwortung von Anfang an integriert und Risiken gemeinsam getragen werden können.

Definition von „hochriskanter KI“

Die Diskussion beginnt mit einer scheinbar einfachen Frage: Was ist „hochriskante KI“? Laut Superna betrifft dies alle Systeme, die kritische Daten verarbeiten, sei es durch Zugriffssteuerungen, Einbruchserkennung oder automatisierte Behebung. Steve Arlin, Vizepräsident für globale technische Allianzen bei Superna, warnt jedoch: „Viele KI-Systeme verfügen nicht über die kontinuierliche Überwachung oder transparente Prüfung, die das EU-Gesetz erfordert. Ohne diese können Kunden leicht Compliance-Probleme haben.”

Risikoreduktionsstrategien

Über die rechtlichen Details des EU AI-Gesetzes hinaus stellt sich die Frage, was KI-Risiko wirklich für den Kanal bedeutet. Die Antwort, die jeder Anbieter gab, dreht sich immer wieder um Daten – nicht nur um deren Qualität und Herkunft, sondern auch um die komplexen Realitäten von Verwaltung, Interpretation und Vertrauen. Ist Risiko nur eine Frage der Compliance oder können wir wirklich die Daten verstehen und kontrollieren, die jeder KI-Entscheidung zugrunde liegen?

Matthias Nijs, VP für EMEA-Vertrieb bei Datadobi, weist darauf hin, dass unstrukturierte Daten, wenn sie ignoriert werden, ein großes Risiko darstellen – veraltete Dateien, besitzlose Datensätze oder redundante Inhalte, die die Integrität von Modellen untergraben. Um dieses Risiko zu mindern, sollten Organisationen die Datenlandschaft kartieren und klassifizieren und „goldene Kopien“ – sichere, unveränderliche Datensätze – einrichten, die die einzigen vertrauenswürdigen Eingaben für KI sind. Dies schützt Modelle vor Ransomware, Datenabfluss und unbeabsichtigter Korruption.

Rosa Lenders, Marketing-Managerin EMEA bei Cloudian, hebt ein oft übersehenes Risiko in Bezug auf die Herkunft und Historie unstrukturierter Daten hervor. Wenn Sie nicht zurückverfolgen können, woher Trainingsdaten stammen, wer darauf zugegriffen hat oder wie sie sich geändert haben, können Ihre Modelle nicht vertraut werden. “Wenn Sie Ihre Daten nicht erklären können, können Sie Ihr Modell nicht erklären.”

Die Daten sind nur der Anfang. Natalie Spence, Senior Partner Marketing Manager, EMEA, bei Sonatype, lenkt das Gespräch auf das Risiko von Modellen selbst und die Bedrohung durch Vorurteile oder Sicherheitsanfälligkeiten. Nur wenige Organisationen können genau bestimmen, welche KI-Modelle wo eingesetzt werden und welche Risiken diese Modelle mit sich bringen. “Sofortige Sichtbarkeit darüber, welche KI verwendet wird”, ist entscheidend, aber das muss mit einer fortlaufenden Bewertung von Vorurteilen, Malware und Compliance kombiniert werden.

Zusammenarbeit fördert Compliance

Was in diesen Gesprächen auffiel, war, dass nur wenige Anbieter glauben, dass verantwortungsvolle KI allein durch Technologie oder Compliance erreicht werden kann. Es besteht breite Einigkeit: Keine einzelne Lösung, kein Tool oder keine Vorschrift kann jede Frage zu KI-Risiken beantworten. Vielmehr ist es die Partnerschaft und Zusammenarbeit, die prägt, wie KI entwickelt und angenommen wird und wie Compliance zu einem kontinuierlichen, gemeinsamen Engagement wird, anstatt eine bloße Pflichtübung zu sein.

VimalRaj erklärt, dass ManageEngine der Ansicht ist, dass Anbieter die Verantwortung für KI-Compliance und -Risiken mit Kanalpartnern teilen sollten. “Letztendlich geht es darum, unsere Partner mit den Tools, Schulungen und Klarheit auszustatten, um KI-Lösungen anzubieten, die nicht nur intelligent, sondern auch verantwortungsvoll, ethisch und bereit für regulatorische Prüfungen sind.”

Compliance vs. Innovation

Wenn es um KI geht, ist die Grenze zwischen Compliance und Innovation nicht immer klar. Müssen Organisationen zwischen den beiden wählen?

RealVNC und Panzura machen deutlich, dass die Antwort nein ist. Chris Beagle, Senior Partner Manager bei RealVNC, sagt: “Sicherheit und Compliance können Innovation ermöglichen, anstatt sie zu behindern.” Echtzeit-Leistungsdaten und robuste Sicherheitsmaßnahmen schaffen die ideale Umgebung für KI, um Fortschritte zu ermöglichen, ohne die Einhaltung zu gefährden. Mit der richtigen Technologie kann das volle Potenzial von KI genutzt werden, während die regulatorischen Anforderungen erfüllt werden.

Es steht außer Zweifel, dass das EU AI-Gesetz die Compliance und das Risikomanagement von den Randbereichen in das Zentrum der Diskussion im Kanal gerückt hat. Doch wie unsere Anbieter-Einblicke zeigen, sind die Organisationen, die florieren werden, nicht die, die Compliance als eine Pflichtübung betrachten… es sind die, die Transparenz, Partnerschaft und Verantwortlichkeit zu einem Teil ihrer täglichen Abläufe machen.

Zusammenfassend ist festzuhalten:

  • Daten
  • Compliance
  • All dies geschieht nicht isoliert. Der Erfolg von KI im Kanal ist ein kooperativer, iterativer Prozess – kein einzelner Anbieter, Partner, Distributor oder Technologie hat alle Antworten für die verantwortungsvolle und nachhaltige Einbettung von KI. Dies richtig zu machen bedeutet, gemeinsam zu lernen, gemeinsam anzupassen und bereit zu sein, einander herauszufordern.

More Insights

Verantwortliche KI für .NET-Entwickler: Ein praktischer Leitfaden

In der heutigen Ära der Künstlichen Intelligenz (KI) stehen wir vor der Herausforderung, AI-Systeme zu vertrauen. Der Artikel erläutert die sechs Grundsätze von Responsible AI, die von Microsoft...

KI im Risikomanagement und der Compliance im Bankenwesen

In der heutigen komplexen Bankenlandschaft ist KI nicht mehr nur ein Nice-to-Have, sondern wird zur neuen Risikomanagement-Engine, die zentral dafür ist, wie Finanzinstitute Bedrohungen identifizieren...

Kalifornien führt wegweisendes Gesetz zur AI-Transparenz ein

Die kalifornischen Gesetzgeber haben mit dem Gesetz zur Transparenz in der künstlichen Intelligenz einen wichtigen Schritt zur Gewährleistung von Verantwortung und Sicherheit in der Entwicklung von...

Herausforderungen bei der Nutzung von KI-Anwendungen im Recruiting

Die Verwendung von KI-Tools im Bewerbungsprozess ermöglicht es Unternehmen, ihre Abläufe zu optimieren und effizienter zu gestalten. Arbeitgeber müssen jedoch sicherstellen, dass die verwendeten...

Die vier Säulen verantwortungsvoller KI-Systeme

Da generative KI die Art und Weise, wie Unternehmen arbeiten, transformiert, ist es entscheidend, sicherzustellen, dass KI-Systeme mit angemessenen Sicherheitsvorkehrungen implementiert werden. Die...

Verantwortungsvolle KI: Inklusive Gestaltung für Schwellenmärkte

Dieser Artikel beschreibt, wie künstliche Intelligenz in aufstrebenden Märkten verantwortungsvoll gestaltet werden kann, um Inklusion durch Design zu fördern. Es werden drei wesentliche Säulen der...