Reaktion der Anbieter auf den EU KI-Gesetz

Wie Kanalanbieter auf das EU AI-Gesetz reagieren

Seit Inkrafttreten des EU AI-Gesetzes hat sich die Diskussion über KI-Innovation im IT-Kanal mit größeren Fragen zu Compliance und Vertrauen vermischt. Für Wiederverkäufer, MSPs und Partner beinhalten die Gespräche, wie neue rechtliche Anforderungen erfüllt, Verantwortung von Anfang an integriert und Risiken gemeinsam getragen werden können.

Definition von „hochriskanter KI“

Die Diskussion beginnt mit einer scheinbar einfachen Frage: Was ist „hochriskante KI“? Laut Superna betrifft dies alle Systeme, die kritische Daten verarbeiten, sei es durch Zugriffssteuerungen, Einbruchserkennung oder automatisierte Behebung. Steve Arlin, Vizepräsident für globale technische Allianzen bei Superna, warnt jedoch: „Viele KI-Systeme verfügen nicht über die kontinuierliche Überwachung oder transparente Prüfung, die das EU-Gesetz erfordert. Ohne diese können Kunden leicht Compliance-Probleme haben.”

Risikoreduktionsstrategien

Über die rechtlichen Details des EU AI-Gesetzes hinaus stellt sich die Frage, was KI-Risiko wirklich für den Kanal bedeutet. Die Antwort, die jeder Anbieter gab, dreht sich immer wieder um Daten – nicht nur um deren Qualität und Herkunft, sondern auch um die komplexen Realitäten von Verwaltung, Interpretation und Vertrauen. Ist Risiko nur eine Frage der Compliance oder können wir wirklich die Daten verstehen und kontrollieren, die jeder KI-Entscheidung zugrunde liegen?

Matthias Nijs, VP für EMEA-Vertrieb bei Datadobi, weist darauf hin, dass unstrukturierte Daten, wenn sie ignoriert werden, ein großes Risiko darstellen – veraltete Dateien, besitzlose Datensätze oder redundante Inhalte, die die Integrität von Modellen untergraben. Um dieses Risiko zu mindern, sollten Organisationen die Datenlandschaft kartieren und klassifizieren und „goldene Kopien“ – sichere, unveränderliche Datensätze – einrichten, die die einzigen vertrauenswürdigen Eingaben für KI sind. Dies schützt Modelle vor Ransomware, Datenabfluss und unbeabsichtigter Korruption.

Rosa Lenders, Marketing-Managerin EMEA bei Cloudian, hebt ein oft übersehenes Risiko in Bezug auf die Herkunft und Historie unstrukturierter Daten hervor. Wenn Sie nicht zurückverfolgen können, woher Trainingsdaten stammen, wer darauf zugegriffen hat oder wie sie sich geändert haben, können Ihre Modelle nicht vertraut werden. “Wenn Sie Ihre Daten nicht erklären können, können Sie Ihr Modell nicht erklären.”

Die Daten sind nur der Anfang. Natalie Spence, Senior Partner Marketing Manager, EMEA, bei Sonatype, lenkt das Gespräch auf das Risiko von Modellen selbst und die Bedrohung durch Vorurteile oder Sicherheitsanfälligkeiten. Nur wenige Organisationen können genau bestimmen, welche KI-Modelle wo eingesetzt werden und welche Risiken diese Modelle mit sich bringen. “Sofortige Sichtbarkeit darüber, welche KI verwendet wird”, ist entscheidend, aber das muss mit einer fortlaufenden Bewertung von Vorurteilen, Malware und Compliance kombiniert werden.

Zusammenarbeit fördert Compliance

Was in diesen Gesprächen auffiel, war, dass nur wenige Anbieter glauben, dass verantwortungsvolle KI allein durch Technologie oder Compliance erreicht werden kann. Es besteht breite Einigkeit: Keine einzelne Lösung, kein Tool oder keine Vorschrift kann jede Frage zu KI-Risiken beantworten. Vielmehr ist es die Partnerschaft und Zusammenarbeit, die prägt, wie KI entwickelt und angenommen wird und wie Compliance zu einem kontinuierlichen, gemeinsamen Engagement wird, anstatt eine bloße Pflichtübung zu sein.

VimalRaj erklärt, dass ManageEngine der Ansicht ist, dass Anbieter die Verantwortung für KI-Compliance und -Risiken mit Kanalpartnern teilen sollten. “Letztendlich geht es darum, unsere Partner mit den Tools, Schulungen und Klarheit auszustatten, um KI-Lösungen anzubieten, die nicht nur intelligent, sondern auch verantwortungsvoll, ethisch und bereit für regulatorische Prüfungen sind.”

Compliance vs. Innovation

Wenn es um KI geht, ist die Grenze zwischen Compliance und Innovation nicht immer klar. Müssen Organisationen zwischen den beiden wählen?

RealVNC und Panzura machen deutlich, dass die Antwort nein ist. Chris Beagle, Senior Partner Manager bei RealVNC, sagt: “Sicherheit und Compliance können Innovation ermöglichen, anstatt sie zu behindern.” Echtzeit-Leistungsdaten und robuste Sicherheitsmaßnahmen schaffen die ideale Umgebung für KI, um Fortschritte zu ermöglichen, ohne die Einhaltung zu gefährden. Mit der richtigen Technologie kann das volle Potenzial von KI genutzt werden, während die regulatorischen Anforderungen erfüllt werden.

Es steht außer Zweifel, dass das EU AI-Gesetz die Compliance und das Risikomanagement von den Randbereichen in das Zentrum der Diskussion im Kanal gerückt hat. Doch wie unsere Anbieter-Einblicke zeigen, sind die Organisationen, die florieren werden, nicht die, die Compliance als eine Pflichtübung betrachten… es sind die, die Transparenz, Partnerschaft und Verantwortlichkeit zu einem Teil ihrer täglichen Abläufe machen.

Zusammenfassend ist festzuhalten:

  • Daten
  • Compliance
  • All dies geschieht nicht isoliert. Der Erfolg von KI im Kanal ist ein kooperativer, iterativer Prozess – kein einzelner Anbieter, Partner, Distributor oder Technologie hat alle Antworten für die verantwortungsvolle und nachhaltige Einbettung von KI. Dies richtig zu machen bedeutet, gemeinsam zu lernen, gemeinsam anzupassen und bereit zu sein, einander herauszufordern.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...