Stärkung des Datenschutzes und der KI-Governance in Singapur

Stärkung des Datenschutzes und der KI-Governance in Singapur

Singapur reagiert proaktiv auf die sich entwickelnden Herausforderungen, die durch die Datenverwendung im Zeitalter der künstlichen Intelligenz (KI) entstehen. Diese proaktive Haltung wurde während der Personal Data Protection Week 2025 betont, an der über 1.500 Teilnehmer teilnahmen und die die wachsende Bedeutung des Datenschutzes in einer sich schnell verändernden technologischen und globalen Landschaft widerspiegelt.

Thema der Veranstaltung

Das diesjährige Thema, „Datenschutz in einer sich verändernden Welt“, verdeutlicht die drängende Notwendigkeit, nicht nur Gesetze und Praktiken, sondern auch breitere soziale Normen anzupassen.

Daten als Treiber und Einschränkung

Ministerin Teo hob hervor, wie Daten den gesamten KI-Entwicklungszyklus antreiben, vom Vortraining über Feinabstimmungen bis hin zu Tests und Validierungen. Beispiele wie AskMax, der Chatbot des Changi Flughafens, und GPT-Legal, der mit der LawNet-Datenbank feinabgestimmt wurde, zeigen die Abhängigkeit der KI von qualitativ hochwertigen, domänenspezifischen Datensätzen.

Dennoch hat sich gezeigt, dass Daten auch eine Einschränkung darstellen. Bei der Verwendung von Internetdaten für das Training treten oft Ungleichheiten auf, und diese Daten können voreingenommene oder toxische Inhalte enthalten. Eine regionale Red-Teaming-Herausforderung offenbarte besorgniserregende Stereotypen, die von einem Sprachmodell generiert wurden, was die Risiken unfilterter Trainingsdaten unterstreicht. Da Entwickler öffentliche Datensätze erschöpfen, verlagert sich die Aufmerksamkeit auf sensiblere Quellen, einschließlich privater Partnerschaften mit Universitäten, Unternehmen und Regierungen, was neue Datenschutzbedenken aufwirft.

Herausforderungen bei der KI-Anwendung

Die Implementierung von KI-Anwendungen kann ebenfalls Herausforderungen mit sich bringen. Ein Test ergab, dass ein von einem hochmodernen Hersteller verwendeter Chatbot Backend-Verkaufsprovisionssätze offenbarte, als er auf Mandarin angesprochen wurde. Dieses Beispiel, das von Vulcan aufgedeckt wurde, verdeutlicht die Bedeutung robuster Sicherheitsvorkehrungen und von Tests vor der Veröffentlichung.

Strategien zur Risikominderung

Maßnahmen wie Systemaufforderungen, abrufgestützte Generierung (RAG) und Datenfilter werden häufig eingesetzt, um Zuverlässigkeit, Voreingenommenheit und Datenschutz zu adressieren. Dennoch verdeutlichen unerwartete Fehler die Notwendigkeit unabhängiger Tests. Die Ministerin betonte, dass es entscheidend ist, dass generative KI-Anwendungen wie beabsichtigt funktionieren, um Vertrauen und Akzeptanz zu gewährleisten.

Sicherer Raum für Experimente

Singapurs Privacy Enhancing Technologies (PETs) Sandbox bietet einen sicheren Raum für Experimente. Finanzunternehmen wie Ant International haben beispielsweise ein Modell mit einem Partner für digitale Geldbörsen unter Verwendung separater Datensätze trainiert, um die Zielgruppenansprache und das Engagement zu verbessern, ohne die Kundendaten zu gefährden.

Das Potenzial synthetischer Daten

Synthetische Daten zeigen ebenfalls vielversprechende Ansätze. Der Leitfaden zur Generierung synthetischer Daten der PDPC skizziert bewährte Praktiken, und lokale Unternehmen wie Betterdata unterstützen Entwickler dabei, Trainingsdatensätze zu erweitern und gleichzeitig sensitive Informationen zu schützen.

Förderung der breiteren Akzeptanz

Um eine breitere Akzeptanz zu unterstützen, wird die IMDA einen PETs-Adoptionsleitfaden für Führungskräfte einführen, der Unternehmen dabei helfen soll, geeignete Datenschutztechnologien auszuwählen und zu implementieren. Der PETs-Gipfel kehrt in diesem Jahr zurück, um die sektorübergreifende Zusammenarbeit zwischen Regulierungsbehörden, Technologieanbietern und Anwendern zu vertiefen.

Fortschritt in der KI-Gewährleistung

Singapur treibt auch die KI-Gewährleistung voran. Das Global AI Assurance Pilot und ein neuer AI Assurance Sandbox zielen darauf ab, standardisierte Testmethoden zu entwickeln, um Risiken wie toxische Inhalte und Datenlecks zu managen. Das IMDA Starter Kit bietet praktische Werkzeuge, die über hochrangige Rahmenbedingungen hinausgehen.

Beispiele hierfür sind das Changi General Hospital, das ein Zusammenfassungswerkzeug für klinische Sicherheit getestet hat, und NCS, das die Übereinstimmung seines Codierassistenten mit internen und regulatorischen Standards überprüfte. Diese Bemühungen veranschaulichen Singapurs Engagement für den Aufbau eines robusten KI-Ökosystems, das Benutzer schützt und verantwortungsvolle Innovation fördert.

Datenschutz und Compliance

Das Data Protection Trustmark wurde auf die Singapore Standard 714 angehoben und setzt einen nationalen Benchmark für Organisationen, die starke Datenschutzpraktiken demonstrieren. Dieser neue Standard versichert den Verbrauchern, dass zertifizierte Unternehmen weltweit führende Datenverwaltungsmaßnahmen ergreifen. Er ermöglicht es Unternehmen auch, sich einen Wettbewerbsvorteil zu verschaffen, indem sie ihr Engagement für verantwortungsvolle Datennutzung und Datenschutz-Compliance präsentieren.

Schlussfolgerung

Die Ministerin forderte eine kollektive Verantwortung über den gesamten KI-Lebenszyklus und bekräftigte Singapurs Engagement, verantwortungsvolle Innovation zu ermöglichen und gleichzeitig das öffentliche Vertrauen in die Daten- und KI-Governance zu fördern.

Durch die Zusammenarbeit zur Bewältigung dieser Herausforderungen strebt Singapur an, in der vertrauenswürdigen und effektiven KI-Adoption über alle Sektoren hinweg eine Führungsrolle einzunehmen. Der ausgewogene Ansatz des Landes, Innovation zu fördern und gleichzeitig Sicherheit und Verantwortung zu gewährleisten, könnte als globales Modell für KI- und Daten-Governance dienen.

More Insights

Vertrauenswürdigkeit großer Sprachmodelle im Kontext des EU-KI-Gesetzes

Die Entwicklung großer Sprachmodelle (LLMs) wurde durch Fortschritte im Deep Learning, die Verfügbarkeit umfangreicher öffentlicher Datensätze und leistungsstarker Ressourcen vorangetrieben. Diese...

EU AI Gesetz: Dringender Aufruf zur Pause?

Die Europäische Kommission hat die Forderungen nach einer Verzögerung der Umsetzung des AI-Gesetzes zurückgewiesen und den ursprünglichen Zeitplan beibehalten. Trotz Druck von Unternehmen und Ländern...

Strengere Trump-Kontrollen: Chancen und Risiken für die AI-Branche

Die Trump-Administration bereitet neue Einschränkungen für den Export von KI-Chips nach Malaysia und Thailand vor, um zu verhindern, dass fortschrittliche Prozessoren über Drittländer nach China...

Die Bedeutung von KI- und Datengovernance in modernen Unternehmen

Die Governance von KI und Daten ist entscheidend für die Entwicklung zuverlässiger und ethischer KI-Lösungen in modernen Unternehmen. Diese Rahmenbedingungen sind miteinander verbunden und...

BRICS fordert die UN zu globalen KI-Regulierungen auf

Die BRICS-Staaten haben die Vereinten Nationen aufgefordert, eine Führungsrolle bei der Festlegung globaler Regeln für künstliche Intelligenz zu übernehmen. Diese Initiative unterstreicht die...

Python-gestütztes LLMOps: Verantwortungsvoll KI im großen Maßstab umsetzen

In der heutigen wettbewerbsintensiven Landschaft reicht es nicht aus, große Sprachmodelle (LLMs) bereitzustellen – ein robustes LLMOps-Framework ist erforderlich, um Zuverlässigkeit, Compliance und...

Stärkung des Datenschutzes und der KI-Governance in Singapur

Singapur reagiert proaktiv auf die sich entwickelnden Herausforderungen, die durch die Datennutzung im Zeitalter der künstlichen Intelligenz (KI) entstehen. Ministerin für Kommunikation und...

KI-Überwachung und Governance im asiatisch-pazifischen Raum

Die EU führt mit dem AI Act einen risikobasierten Rahmen ein, um KI-Systeme zu regulieren und biometrische Überwachung zu beschränken. Im Gegensatz dazu exportiert China stillschweigend die...

Verantwortungsvolle Integration von KI im Finanzbetrug

Generative KI hat sich schnell zu einem wichtigen Thema im Finanzsektor entwickelt, wobei der Fokus darauf liegt, wie diese leistungsstarke Technologie verantwortungsvoll in...