Künstliche Intelligenz und Verantwortung: Das aufkommende ESG-Risiko, das institutionelle Investoren nicht ignorieren können
In jüngster Zeit hat ein Aktionärsantrag einer kanadischen Gewerkschaft die Aufmerksamkeit auf die Notwendigkeit gelenkt, die Governance-Struktur von Künstlicher Intelligenz (KI) bei Unternehmen zu stärken. Dieser Antrag fordert Thomson Reuters auf, seine KI-Governance-Richtlinien an die UN-Leitprinzipien für Wirtschaft und Menschenrechte anzupassen. Gleichzeitig sollen die bestehenden Prinzipien überprüft werden, um festzustellen, ob sie geeignet sind, mit den zunehmenden Risiken im Zusammenhang mit KI umzugehen.
Die Hauptanliegen der Gewerkschaft
Die British Columbia General Employees’ Union (BCGEU) hebt hervor, dass trotz der Vorteile von KI, wie Innovation und Effizienzsteigerung, auch Risiken bestehen, die sowohl Datenschutz– als auch Menschenrechtsfragen betreffen. Diese Bedenken sind im Kontext der steigenden Nutzung von KI durch Unternehmen besonders relevant, da die Technologie auch missbraucht werden kann.
Die BCGEU argumentiert, dass Unternehmen, die KI-Technologien entwickeln und lizenzieren, zunehmenden rechtlichen, regulatorischen und reputativen Risiken ausgesetzt sind. Der Antrag schlägt vor, dass eine Abstimmung zugunsten des Antrags im besten Interesse der Aktionäre wäre, insbesondere angesichts der wachsenden Exposition von Thomson Reuters gegenüber diesen Risiken.
Die Rolle von Thomson Reuters
Thomson Reuters hat in den letzten Jahren erheblich in KI investiert, einschließlich neuer Produkte und Innovationen. Besonders hervorzuheben ist der Einsatz von Generativer KI in den neuesten Berichten über soziale Auswirkungen und ESG (Umwelt, Soziale und Governance). Der Antrag der BCGEU betont, dass die KI-Produkte des Unternehmens, einschließlich der genAI-Tools, mit umstrittenen Praktiken wie Einwanderungsrazzien und Abschiebungen in den USA in Verbindung gebracht wurden, die als Verstöße gegen Menschenrechte anerkannt werden.
Technologische Herausforderungen
Ein zentrales Produkt von Thomson Reuters, die Consolidated Lead Evaluation and Reporting Software (CLEAR), hat in den letzten Jahren erhebliche Bedenken hinsichtlich des Datenschutzes ausgelöst. Diese Software ist in der Lage, Milliarden von Datenpunkten zu erfassen, einschließlich Verhaftungs, Handy, kriminellen und Immobiliendaten sowie Echtzeit-Geolokalisierungsdaten. Diese Fähigkeiten haben das Interesse von Investoren, Gesetzgebern, Anwälten und Menschenrechtsorganisationen auf sich gezogen.
Rechtliche und regulatorische Rahmenbedingungen
Thomson Reuters hat sich mit einer 27,5 Millionen US-Dollar teuren Klage über den unbefugten Verkauf persönlicher Daten und Informationen durch CLEAR auseinandersetzen müssen. Dies führte dazu, dass das Unternehmen gezwungen war, Verbesserungen an den Sicherheitsvorkehrungen des Tools vorzunehmen.
Die BCGEU weist darauf hin, dass die rasante Expansion von KI-Funktionen innerhalb von Hochrisikoprodukten wie CLEAR die Notwendigkeit einer klaren rechtebasierten KI-Governance verdeutlicht, um die KI-Strategie des Unternehmens zu stärken.
Aktionärsinteressen und Governance
Die Verantwortung für KI und die Überwachung dieser Technologie gewinnen zunehmend an Bedeutung für die Aktionäre, wie die gestiegene Anzahl von Aktionärsanträgen in diesem Bereich zeigt. Für die Proxy-Saison 2025 wurden insgesamt 17 Anträge eingereicht, im Vergleich zu sechs im vorherigen Jahr.
Zusätzlich zu dem Antrag bei Thomson Reuters gibt es auch KI-fokussierte Aktionärsanträge bei fünf weiteren Unternehmen, darunter große Technologiefirmen wie Amazon, Alphabet und Meta. Diese Anträge fordern eine stärkere Kontrolle über die Entwicklung und Nutzung von Generativer KI, um die Transparenz und ethischen Verpflichtungen in diesem Bereich zu erhöhen.
Insgesamt zeigt die Diskussion um die Governance von KI, dass Unternehmen ohne klare Governance-Rahmenbedingungen erheblichen reputativen, finanziellen und operativen Risiken ausgesetzt sein könnten.