IndiaAI wählt fünf KI-Projekte zur Erkennung von Deepfakes, zur Minderung von Vorurteilen und zum Testen von generativer KI aus
Die zentrale Regierung Indiens hat im Rahmen ihrer KI-Initiative, IndiaAI, fünf Projekte ausgewählt, um den Rahmen für „Sichere und Vertrauenswürdige KI“ zu stärken. Der Fokus liegt auf der Erkennung von Deepfakes, der Minderung von Vorurteilen und der Sicherheit von generativer KI.
Diese Ankündigung folgt auf die zweite Runde der Interessenbekundungen (EoI), die im Dezember 2024 im Rahmen der Safe and Trusted AI Säule der IndiaAI-Mission gestartet wurde. Ziel ist es, die ethische und transparente Einführung von KI-Systemen in Indien sicherzustellen.
Das Ministerium für Elektronik und Informationstechnologie (MeitY) gab bekannt, dass mehr als 400 Vorschläge von akademischen Institutionen, Startups, Forschungsorganisationen und der Zivilgesellschaft eingereicht wurden. Ein multistakeholder Ausschuss prüfte die Einsendungen und wählte fünf Projekte aus.
Ausgewählte Projekte für die Entwicklung sicherer und vertrauenswürdiger KI
Die ausgewählten Vorschläge umfassen:
- Saakshya: Ein Multi-Agenten-Rahmen zur Erkennung und Governance von Deepfakes, entwickelt von IIT Jodhpur und IIT Madras.
- AI Vishleshak: Ein Werkzeug von IIT Mandi und dem Direktorat für Forensische Dienste, Himachal Pradesh, das die Erkennung von audiovisuellen Deepfakes und gefälschten Unterschriften mithilfe von erklärbarer KI verbessert.
- Ein Projekt von IIT Kharagpur, das ein Echtzeit-System zur Erkennung von Sprach-Deepfakes entwickeln wird.
- Digital Futures Lab und Karya konzentrieren sich darauf, Geschlechtervorurteile in KI-Datensätzen für die Landwirtschaft zu adressieren.
- Eine fünfte Initiative, geleitet von Globals ITES Pvt Ltd und IIIT Dharwad, wird Anvil entwickeln, ein Werkzeug für Penetrationstests und Bewertungen von generativen KI-Systemen.
Ökosystem der KI-Governance
IndiaAI betont, dass die ausgewählten Projekte ihr Engagement zur Schaffung eines sicheren, transparenten und inklusiven KI-Ökosystems stärken werden. Die Initiativen kombinieren Echtzeitforensik, Resilienztests und Vorurteilsaudits, um sicherzustellen, dass die in Indien verwendeten KI-Modelle rechenschaftspflichtig und zuverlässig sind.
„Diese Projekte repräsentieren Indiens Bestreben, KI nicht nur zu übernehmen, sondern sie verantwortungsvoll zu gestalten“, sagte ein hochrangiger Beamter, der an der IndiaAI-Mission beteiligt ist. „Durch die Entwicklung indigenen Werkzeuge zur Erkennung, Prüfung und Fairness-Bewertung zielt Indien darauf ab, global führend in der sicheren KI-Innovation zu werden.“
Die umfassendere Mission von IndiaAI
IndiaAI, eine unabhängige Geschäftseinheit unter MeitY, fungiert als Umsetzungsbehörde für die nationale KI-Strategie. Sie arbeitet daran, den Zugang zu künstlicher Intelligenz zu verbessern, ethische KI-Praktiken zu fördern und technologische Selbstständigkeit zu unterstützen.
Die Säule Safe and Trusted AI ist Teil von IndiaAIs multidimensionalem Ansatz, der den Aufbau grundlegender Modelle, die Verbesserung der KI-Recheninfrastruktur und die Förderung der verantwortungsvollen Einführung von KI in Sektoren wie Landwirtschaft, Gesundheitswesen und öffentliche Sicherheit umfasst.
In den letzten Monaten hat IndiaAI auch Partnerschaften mit führenden Forschungsinstituten und Akteuren des privaten Sektors geschlossen, um Rahmenbedingungen für KI-Governance und Datenethik voranzutreiben, was eine wachsende Betonung der Balance zwischen Innovation und Verantwortung im schnell wachsenden digitalen Ökosystem des Landes signalisiert.
Die IndiaAI-Mission wurde mit einem Budget von ₹10.371,92 Crore über fünf Jahre genehmigt.
Liste der ausgewählten Projekte für die IndiaAI-Mission
| Kategorie | Projekte | Organisationen |
|---|---|---|
| Deepfake-Erkennungstool | Saakshya: Multi-Agent, RAG-Enhanced Framework für Deepfake-Erkennung und Governance | IIT Jodhpur (CI) & IIT Madras |
| Deepfake-Erkennungstool | AI Vishleshak: Verbesserung der Audio-Visuellen Deepfake-Erkennung und der Erkennung gefälschter Unterschriften mit adversarialer Robustheit, Erklärbarkeit und Domänenverallgemeinerung | IIT Mandi & Direktorat für Forensische Dienste, Himachal Pradesh |
| Deepfake-Erkennungstool | Echtzeit-Sprach-Deepfake-Erkennungssystem | IIT Kharagpur |
| Vorurteilsminderung | Bewertung von Geschlechtervorurteilen in Landwirtschafts-LLMs – Erstellung digitaler öffentlicher Güter (DPG) für Benchmarking und faire Datenarbeit | Digital Futures Lab & Karya |
| Penetrationstests & Bewertung | Anvil: Penetrationstests und Bewertungstool für LLM und generative KI | Globals ITES Pvt Ltd & IIIT Dharwad |