KI und Verantwortung: Neue ESG-Risiken für institutionelle Investoren

Künstliche Intelligenz und Verantwortung: Das aufkommende ESG-Risiko, das institutionelle Investoren nicht ignorieren können

In jüngster Zeit hat ein Aktionärsantrag einer kanadischen Gewerkschaft die Aufmerksamkeit auf die Notwendigkeit gelenkt, die Governance-Struktur von Künstlicher Intelligenz (KI) bei Unternehmen zu stärken. Dieser Antrag fordert Thomson Reuters auf, seine KI-Governance-Richtlinien an die UN-Leitprinzipien für Wirtschaft und Menschenrechte anzupassen. Gleichzeitig sollen die bestehenden Prinzipien überprüft werden, um festzustellen, ob sie geeignet sind, mit den zunehmenden Risiken im Zusammenhang mit KI umzugehen.

Die Hauptanliegen der Gewerkschaft

Die British Columbia General Employees’ Union (BCGEU) hebt hervor, dass trotz der Vorteile von KI, wie Innovation und Effizienzsteigerung, auch Risiken bestehen, die sowohl Datenschutz– als auch Menschenrechtsfragen betreffen. Diese Bedenken sind im Kontext der steigenden Nutzung von KI durch Unternehmen besonders relevant, da die Technologie auch missbraucht werden kann.

Die BCGEU argumentiert, dass Unternehmen, die KI-Technologien entwickeln und lizenzieren, zunehmenden rechtlichen, regulatorischen und reputativen Risiken ausgesetzt sind. Der Antrag schlägt vor, dass eine Abstimmung zugunsten des Antrags im besten Interesse der Aktionäre wäre, insbesondere angesichts der wachsenden Exposition von Thomson Reuters gegenüber diesen Risiken.

Die Rolle von Thomson Reuters

Thomson Reuters hat in den letzten Jahren erheblich in KI investiert, einschließlich neuer Produkte und Innovationen. Besonders hervorzuheben ist der Einsatz von Generativer KI in den neuesten Berichten über soziale Auswirkungen und ESG (Umwelt, Soziale und Governance). Der Antrag der BCGEU betont, dass die KI-Produkte des Unternehmens, einschließlich der genAI-Tools, mit umstrittenen Praktiken wie Einwanderungsrazzien und Abschiebungen in den USA in Verbindung gebracht wurden, die als Verstöße gegen Menschenrechte anerkannt werden.

Technologische Herausforderungen

Ein zentrales Produkt von Thomson Reuters, die Consolidated Lead Evaluation and Reporting Software (CLEAR), hat in den letzten Jahren erhebliche Bedenken hinsichtlich des Datenschutzes ausgelöst. Diese Software ist in der Lage, Milliarden von Datenpunkten zu erfassen, einschließlich Verhaftungs, Handy, kriminellen und Immobiliendaten sowie Echtzeit-Geolokalisierungsdaten. Diese Fähigkeiten haben das Interesse von Investoren, Gesetzgebern, Anwälten und Menschenrechtsorganisationen auf sich gezogen.

Rechtliche und regulatorische Rahmenbedingungen

Thomson Reuters hat sich mit einer 27,5 Millionen US-Dollar teuren Klage über den unbefugten Verkauf persönlicher Daten und Informationen durch CLEAR auseinandersetzen müssen. Dies führte dazu, dass das Unternehmen gezwungen war, Verbesserungen an den Sicherheitsvorkehrungen des Tools vorzunehmen.

Die BCGEU weist darauf hin, dass die rasante Expansion von KI-Funktionen innerhalb von Hochrisikoprodukten wie CLEAR die Notwendigkeit einer klaren rechtebasierten KI-Governance verdeutlicht, um die KI-Strategie des Unternehmens zu stärken.

Aktionärsinteressen und Governance

Die Verantwortung für KI und die Überwachung dieser Technologie gewinnen zunehmend an Bedeutung für die Aktionäre, wie die gestiegene Anzahl von Aktionärsanträgen in diesem Bereich zeigt. Für die Proxy-Saison 2025 wurden insgesamt 17 Anträge eingereicht, im Vergleich zu sechs im vorherigen Jahr.

Zusätzlich zu dem Antrag bei Thomson Reuters gibt es auch KI-fokussierte Aktionärsanträge bei fünf weiteren Unternehmen, darunter große Technologiefirmen wie Amazon, Alphabet und Meta. Diese Anträge fordern eine stärkere Kontrolle über die Entwicklung und Nutzung von Generativer KI, um die Transparenz und ethischen Verpflichtungen in diesem Bereich zu erhöhen.

Insgesamt zeigt die Diskussion um die Governance von KI, dass Unternehmen ohne klare Governance-Rahmenbedingungen erheblichen reputativen, finanziellen und operativen Risiken ausgesetzt sein könnten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...