Partnerschaft für verantwortungsbewusste KI-Governance

Trustible führt die erste Sponsorengruppe für die AI Incident Database an

ARLINGTON, Va., 26. Januar 2026 /PRNewswire/ — Trustible, ein führender Anbieter von Software für die KI-Governance in Unternehmen, hat heute eine Partnerschaft mit der Responsible AI Collaborative (RAIC) angekündigt, der unabhängigen gemeinnützigen Organisation hinter der AI Incident Database (AIID). Trustible leitet die erste Gruppe von Unternehmenssponsoren der RAIC und wird die Vorfalldaten der AIID direkt in seine Plattform integrieren sowie mit der RAIC bei Forschung zu KI-Risiken und praktischen Governance-Methoden zusammenarbeiten.

Warum das wichtig ist

Effektive KI-Governance erfordert mehr als nur die Überwachung von Modellen in Isolation. Sie bedeutet, zu verstehen, wie KI-Systeme in der realen Welt scheitern, und Prozesse zu entwickeln, um diese Misserfolge zu verhindern. Die AIID ist das definitive öffentliche Verzeichnis von KI-bezogenen Vorfällen, das über 5.000 Vorfallberichte umfasst, die über acht Jahre gesammelt und kuratiert wurden. Es wird von Zentralbanken, zwischenstaatlichen Organisationen, Forschern und Praktikern weltweit genutzt.

Durch diese Partnerschaft können Trustible-Kunden die Vorfallberichte der AIID direkt in der Trustible-Plattform einsehen und über die umsetzbare Intelligenz von Trustible ihre internen KI-Inventare proaktiv mit relevanten Vorfällen aus der Datenbank verknüpfen. Trustible-Nutzer erhalten benutzerdefinierte Benachrichtigungen, sobald neue Vorfälle für Anwendungsfälle, Modelle oder Anbieter gemeldet werden, die in Trustibles KI-Inventar verfolgt werden. Dies ermöglicht es Organisationen, über die neuesten KI-Risiken informiert zu bleiben und potenzielle Minderungsstrategien in nahezu Echtzeit zu verstehen, wodurch Vertrauen und Sicherheit in ihren KI-Einsätzen aufgebaut werden.

Was die Partnerschaft umfasst

  • Plattformintegration: Autorisierte Nutzung von AIID-Inhalten innerhalb der Governance-Plattform von Trustible.
  • Bildung & Meinungsführung: Unterstützung der RAIC-Operationen und der fortlaufenden Entwicklung der Datenbank, einschließlich Möglichkeiten zur Bildung der Geschäfts- und Wissenschaftsgemeinschaften über die neuesten KI-Risiken und Minderungsstrategien.
  • Gemeinsame Forschung: Zusammenarbeit bei der Analyse von Vorfällen, aufkommenden KI-Risiken und Best Practices für die Governance, mit öffentlich veröffentlichten Ergebnissen.

Unsere Verpflichtungen

Diese Partnerschaft unterstützt bewusst die Operationen der RAIC und setzt die Arbeit der AIID ohne Unterbrechung oder Einfluss von Geschäftspartnern fort. Trustible wird keine Rolle bei den redaktionellen Entscheidungen der RAIC spielen und keine Entscheidungen bezüglich der in der AIID protokollierten Vorfälle oder deren Bewertung beeinflussen. Diese unabhängigen Entscheidungen verbleiben weiterhin beim Redaktionsteam der RAIC, das nach ihrer öffentlich verfügbaren Methodik arbeitet.

Für Trustible-Kunden bleiben alle Plattform- und Organisationsdaten vertraulich. Keine Kundendaten, die in der Trustible-Plattform gespeichert sind, werden ohne ausdrückliche schriftliche Zustimmung an Dritte weitergegeben. Die Partnerschaft mit der AIID ist eine Erweiterung des Engagements von Trustible, die umfassendste, aber zugleich passive Ebene umsetzbarer Intelligenz in der KI aufzubauen, die rechtliche, politische, technische und geschäftliche Informationen in einer einzigen Übersicht kombiniert.

Über Trustible

Trustible ist der Ort, an dem KI-Governance umgesetzt wird. Wir helfen regulierten Unternehmen, KI-Risiken zu managen, Vorschriften einzuhalten und eine sichere, verantwortungsvolle KI-Adoption durch unsere branchenführende Governance-Plattform und eingebettete Intelligenz zu beschleunigen, die Governance in messbare Aktionen umwandelt. Wir haben bisher 7,69 Millionen USD an Finanzierungen erhalten, unterstützt von führenden Investoren. In einer Zeit, in der KI-Governance schnell zu einer strategischen Priorität für globale Unternehmen wird, definiert Trustible, wie die Welt KI sicher, ethisch und in großem Maßstab adoptiert.

Über die Responsible AI Collaborative

Die Responsible AI Collaborative (RAIC) ist eine unabhängige gemeinnützige Organisation, die die AI Incident Database (AIID) verwaltet, das am weitesten verbreitete öffentliche Verzeichnis realer KI-Schäden. Die AIID hat in acht Jahren über 5.000 kuratierte Vorfallberichte gesammelt und die Entwicklung nationaler und zwischenstaatlicher KI-Standards informiert.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...