Infosys stellt verantwortungsbewusstes KI-Toolkit als Open Source vor

Einführung des Responsible AI Toolkits von Infosys

Infosys hat ein Open-Source Responsible AI Toolkit als Teil seiner Topaz Responsible AI Suite eingeführt. Diese Initiative unterstreicht das Engagement von Infosys für die ethische Annahme von Künstlicher Intelligenz (KI) und zielt darauf ab, Unternehmen bei der Bewältigung von KI-bezogenen Risiken zu unterstützen.

Ziele des Toolkits

Das Toolkit soll ein sicheres, faires und transparentes KI-Ökosystem fördern. Es ist auf der AI3S-Framework (Scan, Shield, Steer) von Infosys aufgebaut und integriert fortschrittliche Schutzmaßnahmen, einschließlich KI-Modellen und Shielding-Algorithmen, die darauf abzielen, Sicherheitsbedrohungen, Datenschutzverletzungen und voreingenommene Ausgaben zu erkennen und zu mildern.

Erklärbarkeit und Anpassungsfähigkeit

Ein weiteres wichtiges Merkmal des Toolkits ist die Erklärbarkeit. Es bietet Einblicke in von KI-generierte Entscheidungen, ohne die Leistung zu beeinträchtigen. Das Toolkit ist so konzipiert, dass es anpassbar und mit verschiedenen KI-Systemen kompatibel ist, und es unterstützt sowohl Cloud- als auch On-Premise-Implementierungen.

Aussagen von Branchenführern

Die Bedeutung dieser Initiative wurde von führenden Persönlichkeiten der Branche anerkannt. Joshua Bamford, Leiter für Wissenschaft, Technologie und Innovation bei der Britischen Hochkommission, bezeichnete das Toolkit als einen Benchmark für technologische Exzellenz. Er betonte, dass es Unternehmen, Startups und kleinen bis mittelständischen Unternehmen (KMU) ermöglicht, KI verantwortungsbewusst zu nutzen.

Sunil Abraham, Direktor für öffentliche Politik bei Meta, hob hervor, dass Open-Source-Tools entscheidend für die Gewährleistung von KI-Sicherheit, Diversität und wirtschaftlichen Chancen sind.

Reaktionen der Regierung

Auch die Regierung Indiens begrüßte den Schritt von Infosys. Abhishek Singh, Zusatzsekretär im Ministerium für Elektronik und Informationstechnologie (MeitY), bemerkte, dass die Open-Sourcing-Initiative des Toolkits dazu beitragen würde, Voreingenommenheit in KI-Modellen zu mildern und Sicherheit, Datenschutz und Fairness in KI-basierten Lösungen zu verbessern.

Engagement für verantwortungsvolle KI

Infosys engagiert sich aktiv für Responsible AI-Initiativen. Das Unternehmen war eines der ersten, das die ISO 42001:2023-Zertifizierung für KI-Managementsysteme erhielt und ist an globalen Diskussionen über KI-Politik beteiligt, unter anderem durch Organisationen wie das NIST AI Safety Institute Consortium, WEF AIGA, AI Alliance und Stanford HAI.

Fazit

Das Responsible AI Toolkit von Infosys stellt einen bedeutenden Schritt in der Entwicklung ethischer KI dar. Durch die Bereitstellung eines flexiblen, anpassbaren und offenen Ansatzes trägt es dazu bei, die Herausforderungen im Zusammenhang mit KI zu bewältigen und unterstützt Unternehmen dabei, KI verantwortungsbewusst zu implementieren.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...