Fünf KI-Projekte zur Bekämpfung von Deepfakes und Vorurteilen in Indien

IndiaAI wählt fünf KI-Projekte zur Erkennung von Deepfakes, zur Minderung von Vorurteilen und zum Testen von generativer KI aus

Die zentrale Regierung Indiens hat im Rahmen ihrer KI-Initiative, IndiaAI, fünf Projekte ausgewählt, um den Rahmen für „Sichere und Vertrauenswürdige KI“ zu stärken. Der Fokus liegt auf der Erkennung von Deepfakes, der Minderung von Vorurteilen und der Sicherheit von generativer KI.

Diese Ankündigung folgt auf die zweite Runde der Interessenbekundungen (EoI), die im Dezember 2024 im Rahmen der Safe and Trusted AI Säule der IndiaAI-Mission gestartet wurde. Ziel ist es, die ethische und transparente Einführung von KI-Systemen in Indien sicherzustellen.

Das Ministerium für Elektronik und Informationstechnologie (MeitY) gab bekannt, dass mehr als 400 Vorschläge von akademischen Institutionen, Startups, Forschungsorganisationen und der Zivilgesellschaft eingereicht wurden. Ein multistakeholder Ausschuss prüfte die Einsendungen und wählte fünf Projekte aus.

Ausgewählte Projekte für die Entwicklung sicherer und vertrauenswürdiger KI

Die ausgewählten Vorschläge umfassen:

  • Saakshya: Ein Multi-Agenten-Rahmen zur Erkennung und Governance von Deepfakes, entwickelt von IIT Jodhpur und IIT Madras.
  • AI Vishleshak: Ein Werkzeug von IIT Mandi und dem Direktorat für Forensische Dienste, Himachal Pradesh, das die Erkennung von audiovisuellen Deepfakes und gefälschten Unterschriften mithilfe von erklärbarer KI verbessert.
  • Ein Projekt von IIT Kharagpur, das ein Echtzeit-System zur Erkennung von Sprach-Deepfakes entwickeln wird.
  • Digital Futures Lab und Karya konzentrieren sich darauf, Geschlechtervorurteile in KI-Datensätzen für die Landwirtschaft zu adressieren.
  • Eine fünfte Initiative, geleitet von Globals ITES Pvt Ltd und IIIT Dharwad, wird Anvil entwickeln, ein Werkzeug für Penetrationstests und Bewertungen von generativen KI-Systemen.

Ökosystem der KI-Governance

IndiaAI betont, dass die ausgewählten Projekte ihr Engagement zur Schaffung eines sicheren, transparenten und inklusiven KI-Ökosystems stärken werden. Die Initiativen kombinieren Echtzeitforensik, Resilienztests und Vorurteilsaudits, um sicherzustellen, dass die in Indien verwendeten KI-Modelle rechenschaftspflichtig und zuverlässig sind.

„Diese Projekte repräsentieren Indiens Bestreben, KI nicht nur zu übernehmen, sondern sie verantwortungsvoll zu gestalten“, sagte ein hochrangiger Beamter, der an der IndiaAI-Mission beteiligt ist. „Durch die Entwicklung indigenen Werkzeuge zur Erkennung, Prüfung und Fairness-Bewertung zielt Indien darauf ab, global führend in der sicheren KI-Innovation zu werden.“

Die umfassendere Mission von IndiaAI

IndiaAI, eine unabhängige Geschäftseinheit unter MeitY, fungiert als Umsetzungsbehörde für die nationale KI-Strategie. Sie arbeitet daran, den Zugang zu künstlicher Intelligenz zu verbessern, ethische KI-Praktiken zu fördern und technologische Selbstständigkeit zu unterstützen.

Die Säule Safe and Trusted AI ist Teil von IndiaAIs multidimensionalem Ansatz, der den Aufbau grundlegender Modelle, die Verbesserung der KI-Recheninfrastruktur und die Förderung der verantwortungsvollen Einführung von KI in Sektoren wie Landwirtschaft, Gesundheitswesen und öffentliche Sicherheit umfasst.

In den letzten Monaten hat IndiaAI auch Partnerschaften mit führenden Forschungsinstituten und Akteuren des privaten Sektors geschlossen, um Rahmenbedingungen für KI-Governance und Datenethik voranzutreiben, was eine wachsende Betonung der Balance zwischen Innovation und Verantwortung im schnell wachsenden digitalen Ökosystem des Landes signalisiert.

Die IndiaAI-Mission wurde mit einem Budget von ₹10.371,92 Crore über fünf Jahre genehmigt.

Liste der ausgewählten Projekte für die IndiaAI-Mission

Kategorie Projekte Organisationen
Deepfake-Erkennungstool Saakshya: Multi-Agent, RAG-Enhanced Framework für Deepfake-Erkennung und Governance IIT Jodhpur (CI) & IIT Madras
Deepfake-Erkennungstool AI Vishleshak: Verbesserung der Audio-Visuellen Deepfake-Erkennung und der Erkennung gefälschter Unterschriften mit adversarialer Robustheit, Erklärbarkeit und Domänenverallgemeinerung IIT Mandi & Direktorat für Forensische Dienste, Himachal Pradesh
Deepfake-Erkennungstool Echtzeit-Sprach-Deepfake-Erkennungssystem IIT Kharagpur
Vorurteilsminderung Bewertung von Geschlechtervorurteilen in Landwirtschafts-LLMs – Erstellung digitaler öffentlicher Güter (DPG) für Benchmarking und faire Datenarbeit Digital Futures Lab & Karya
Penetrationstests & Bewertung Anvil: Penetrationstests und Bewertungstool für LLM und generative KI Globals ITES Pvt Ltd & IIIT Dharwad

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...