Infosys Rende Open Source il Toolkit per l’AI Responsabile
Il toolkit per l’AI responsabile di Infosys è stato lanciato come parte della suite Topaz, consolidando l’impegno dell’azienda verso l’adozione etica dell’AI. Questo strumento open-source mira ad aiutare le aziende ad affrontare i rischi legati all’AI, promuovendo un ecosistema AI sicuro, equo e trasparente.
Caratteristiche del Toolkit
Il toolkit si basa sul framework AI3S di Infosys (Scan, Shield e Steer) e integra avanzati guardrail, inclusi modelli di AI e algoritmi di protezione, per rilevare e mitigare minacce alla sicurezza, violazioni della privacy, output distorti, deepfake e altri rischi. Inoltre, migliora l’esplicabilità fornendo approfondimenti sulle decisioni generate dall’AI senza compromettere le prestazioni.
Progettato per la flessibilità, il toolkit è personalizzabile, compatibile con diversi sistemi di AI e supporta sia le implementazioni cloud che on-premise.
Impatto sull’Industria
Secondo Balakrishna D. R. (Bali), VP esecutivo e responsabile dei servizi globali, l’adozione etica dell’AI è diventata fondamentale per il crescita delle imprese. «Rendendo il toolkit open source, stiamo promuovendo un ecosistema collaborativo che affronta le complesse sfide del bias dell’AI, dell’opacità e della sicurezza», ha dichiarato.
I leader del settore hanno riconosciuto l’importanza di questa iniziativa. Joshua Bamford, responsabile di Scienza, Tecnologia e Innovazione presso la Commissione Britannica, l’ha definita un «benchmark per l’eccellenza tecnologica», aggiungendo che consente alle imprese, startup e PMI di adottare l’AI in modo responsabile.
Il Governo Indiano ha accolto favorevolmente l’iniziativa di Infosys. Abhishek Singh, Segretario Aggiunto presso MeitY, ha osservato che l’open-sourcing del toolkit aiuterà a «mitigare il bias nei modelli di AI e migliorare la sicurezza, la privacy e l’equitá nelle soluzioni basate su AI».
Impegno Continuo di Infosys
Infosys ha attivamente promosso iniziative per l’AI responsabile. È stata tra le prime aziende a ricevere la certificazione ISO 42001:2023 sui sistemi di gestione dell’AI ed è coinvolta nelle discussioni globali sulle politiche dell’AI attraverso organizzazioni come il NIST AI Safety Institute Consortium, WEF AIGA, AI Alliance e Stanford HAI.