Workday setzt Maßstäbe für verantwortungsbewusste KI mit dualen Governance-Akkreditierungen

Workday setzt den Standard für verantwortungsbewusste KI mit dualen Governance-Akkreditierungen

Am 27. Juni 2025 erhielt Workday zwei Akkreditierungen von Dritten für sein KI-Governance-Programm. Diese Anerkennungen unterstreichen die Verpflichtung des Unternehmens, verantwortungsbewusste und transparente KI zu entwickeln.

Wichtige Akkreditierungen

Die erste Akkreditierung ist die ISO 42001, die Workday für seine Bemühungen um verantwortungsvolle KI verliehen wurde. Diese Norm erkennt die Bemühungen des Unternehmens an, künstliche Intelligenz zu schaffen, die nicht nur innovativ, sondern auch ethisch vertretbar ist. Darüber hinaus erhielt Workday eine unabhängige Bestätigung, dass es mit dem National Institute of Standards and Technology AI Risk Management Framework (NIST AI RMF) übereinstimmt.

Verantwortungsvoll gegenüber der KI-Entwicklung

Dr. Kelly Trindle, Chief Responsible AI Officer bei Workday, betonte: „Workday verpflichtet sich, KI zu entwickeln, die das menschliche Potenzial verstärkt und Vertrauen inspiriert. Unser robustes, verantwortungsbewusstes KI-Governance-Programm ist entscheidend für die Bereitstellung der innovativen, vertrauenswürdigen Produkte, die unsere Kunden erwarten. Diese duale Anerkennung bekräftigt unsere Führungsrolle in diesem kritischen Bereich.“

Freiwillige Überprüfung und interne Zuversicht

Es ist wichtig zu beachten, dass Workday nicht verpflichtet war, diese rigorosen Bewertungen durchzuführen. Das Unternehmen entschied sich freiwillig dazu, was ein erhebliches internes Vertrauen in die Effektivität seines KI-Governance-Programms widerspiegelt. Solche Maßnahmen sollten auch das Vertrauen der Kunden von Workday stärken.

Die Notwendigkeit von Transparenz und Sicherheit

Die Entwicklung von KI ist ein kontinuierlicher Prozess, doch die Werkzeuge, um Ergebnisse zu erzielen, sind bereits vorhanden. Die nächste Phase der KI-Entwicklung muss sich nun auf Transparenz, Sicherheit und Governance konzentrieren. Unternehmen wie Microsoft haben bereits damit begonnen, große Sprachmodelle nach Sicherheitskriterien zu bewerten. Diese Entwicklungen zeigen die Notwendigkeit, das Vertrauen der Verbraucher durch rigorose Sicherheitsprüfungen zu stärken.

Schlussfolgerung

Die duale Akkreditierung von Workday für sein KI-Governance-Programm ist ein wichtiger Schritt in Richtung verantwortungsbewusste KI-Entwicklung. Sie zeigt nicht nur das Engagement des Unternehmens für ethische Standards, sondern auch die Notwendigkeit, dass Unternehmen in der Technologiebranche transparente und sichere Praktiken etablieren müssen, um das Vertrauen der Verbraucher zu gewinnen.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...