Workday setzt Maßstäbe für verantwortungsbewusste KI mit dualen Governance-Akkreditierungen

Workday setzt den Standard für verantwortungsbewusste KI mit dualen Governance-Akkreditierungen

Am 27. Juni 2025 erhielt Workday zwei Akkreditierungen von Dritten für sein KI-Governance-Programm. Diese Anerkennungen unterstreichen die Verpflichtung des Unternehmens, verantwortungsbewusste und transparente KI zu entwickeln.

Wichtige Akkreditierungen

Die erste Akkreditierung ist die ISO 42001, die Workday für seine Bemühungen um verantwortungsvolle KI verliehen wurde. Diese Norm erkennt die Bemühungen des Unternehmens an, künstliche Intelligenz zu schaffen, die nicht nur innovativ, sondern auch ethisch vertretbar ist. Darüber hinaus erhielt Workday eine unabhängige Bestätigung, dass es mit dem National Institute of Standards and Technology AI Risk Management Framework (NIST AI RMF) übereinstimmt.

Verantwortungsvoll gegenüber der KI-Entwicklung

Dr. Kelly Trindle, Chief Responsible AI Officer bei Workday, betonte: „Workday verpflichtet sich, KI zu entwickeln, die das menschliche Potenzial verstärkt und Vertrauen inspiriert. Unser robustes, verantwortungsbewusstes KI-Governance-Programm ist entscheidend für die Bereitstellung der innovativen, vertrauenswürdigen Produkte, die unsere Kunden erwarten. Diese duale Anerkennung bekräftigt unsere Führungsrolle in diesem kritischen Bereich.“

Freiwillige Überprüfung und interne Zuversicht

Es ist wichtig zu beachten, dass Workday nicht verpflichtet war, diese rigorosen Bewertungen durchzuführen. Das Unternehmen entschied sich freiwillig dazu, was ein erhebliches internes Vertrauen in die Effektivität seines KI-Governance-Programms widerspiegelt. Solche Maßnahmen sollten auch das Vertrauen der Kunden von Workday stärken.

Die Notwendigkeit von Transparenz und Sicherheit

Die Entwicklung von KI ist ein kontinuierlicher Prozess, doch die Werkzeuge, um Ergebnisse zu erzielen, sind bereits vorhanden. Die nächste Phase der KI-Entwicklung muss sich nun auf Transparenz, Sicherheit und Governance konzentrieren. Unternehmen wie Microsoft haben bereits damit begonnen, große Sprachmodelle nach Sicherheitskriterien zu bewerten. Diese Entwicklungen zeigen die Notwendigkeit, das Vertrauen der Verbraucher durch rigorose Sicherheitsprüfungen zu stärken.

Schlussfolgerung

Die duale Akkreditierung von Workday für sein KI-Governance-Programm ist ein wichtiger Schritt in Richtung verantwortungsbewusste KI-Entwicklung. Sie zeigt nicht nur das Engagement des Unternehmens für ethische Standards, sondern auch die Notwendigkeit, dass Unternehmen in der Technologiebranche transparente und sichere Praktiken etablieren müssen, um das Vertrauen der Verbraucher zu gewinnen.

More Insights

G7-Gipfel verpasst Chance für globale KI-Governance

Die G7-Führungskräfte haben bei ihrem Treffen in Alberta, Kanada, versäumt, die wichtige Thematik der Regulierung von Künstlicher Intelligenz (KI) umfassend zu behandeln. Stattdessen lag der...

Afrika gestaltet eine souveräne Zukunft der KI-Governance

Afrikanische Führer beim Internet Governance Forum (IGF) 2025 forderten dringende Maßnahmen zur Schaffung souveräner und ethischer KI-Systeme, die auf lokale Bedürfnisse zugeschnitten sind. Über 1.000...

Top 10 Herausforderungen bei KI-Regulierungen und Compliance

Mit der Entwicklung von KI weltweit wird es zunehmend schwieriger, effektive Vorschriften zu implementieren. Die EU führt mit ihrem KI-Gesetz, das strenge Verpflichtungen für hochriskante...

Chinas Weg zur verkörperten KI

Der Wettbewerb zwischen den USA und China im Bereich Künstliche Intelligenz wird als die entscheidende technologische Rivalität unserer Zeit angesehen. Während die USA Vorteile in der...

Workday setzt Maßstäbe für verantwortungsbewusste KI mit dualen Governance-Akkreditierungen

Workday hat zwei Drittanbieter-Akkreditierungen für sein KI-Governance-Programm erhalten, einschließlich der ISO 42001. Diese Anerkennung bekräftigt das Engagement des Unternehmens für den Aufbau...

Ethische Standards für KI im Schatten des US-China-Technologiekonflikts

Inmitten der wachsenden Rivalität zwischen den USA und China drängt eine UN-Agentur auf globale Standards für die Ethik von KI. UNESCO hielt das dritte Globale Forum zur Ethik von Künstlicher...

EU AI-Gesetz: Sicherheit und Verantwortung im Fokus

Der EU AI Act stellt strenge Anforderungen an Organisationen, um die sichere Bereitstellung von KI und den Schutz sensibler Daten zu gewährleisten. Zscaler DSPM spielt eine entscheidende Rolle bei der...

Gesetzesentwurf zum Verbot von KI aus feindlichen Nationen

Eine parteiübergreifende Gesetzesvorlage zielt darauf ab, die Nutzung von KI aus China, Russland, Iran und Nordkorea in Bundesbehörden zu verbieten. Das Gesetz, bekannt als "No Adversarial AI Act"...