CII fordert Regulierung von KI im Finanzsektor
Die Chartered Insurance Institute (CII) hat klare Verantwortungsrahmen und eine branchenweite Strategie zur Weiterbildung gefordert, um den Einsatz von künstlicher Intelligenz (KI) im Finanzdienstleistungssektor zu steuern. Diese Empfehlungen wurden an den Treasury Select Committee (TSC) übermittelt.
Mit über 120.000 Fachleuten in der Vertretung betont die CII, dass sowohl Einzelpersonen als auch Institutionen für Entscheidungen, die durch KI-Systeme getroffen werden, verantwortlich bleiben müssen.
Die CII rät dazu, dass Fachleute bereit sein sollten, die Verantwortung für die Ergebnisse von KI-Anwendungen zu übernehmen, sei es durch deren Design oder durch laufende Überwachung. Darüber hinaus wird die Notwendigkeit einer breiten Bildung über die Risiken von KI-Missmanagement hervorgehoben.
Verantwortung und Transparenz
Die Institutionen sollten für die Handlungen ihrer Algorithmen verantwortlich gemacht werden, unabhängig davon, wie komplex es ist, zu erklären, wie diese Algorithmen zu ihren Schlussfolgerungen gelangen. Die CII plädiert für eine obligatorische Validierung und Testung, um das Potenzial für diskriminierende Ergebnisse zu bewerten, wobei die Ergebnisse öffentlich zugänglich gemacht werden sollten, um die Transparenz zu fördern.
Die CII empfiehlt, dass die regulatorische Aufsicht über KI im Finanzdienstleistungssektor einen angemessenen Ansatz verfolgt. Sie schlägt vor, dass alle Mitarbeiter innerhalb regulierter Unternehmen in den Chancen und Risiken des KI-Einsatzes geschult werden. Ziel ist es, den Unternehmen zu ermöglichen, KI effektiv einzusetzen und gleichzeitig die Standards zum Verbraucherschutz aufrechtzuerhalten.
Entwicklungen in der KI-Regulierung
Die Verantwortung beim Einsatz von KI innerhalb der Versicherungs- und Rückversicherungssektoren hat sich zu einem zentralen Thema für Regulierungsbehörden, Branchenakteure und politische Entscheidungsträger entwickelt. Diese gesteigerte Aufmerksamkeit resultiert aus der raschen Integration von KI-Technologien in verschiedenen Bereichen des Versicherungsbetriebs, einschließlich Unterzeichnung, Schadenbearbeitung und Kundenservice.
International trat am 1. August 2024 der Artificial Intelligence Act (AI Act) der Europäischen Union in Kraft, mit einer phasenweisen Umsetzung über die nächsten 24 bis 36 Monate. Der AI Act etabliert einen gemeinsamen regulatorischen und rechtlichen Rahmen für KI innerhalb der EU und klassifiziert KI-Systeme nach Risikoebenen – unzulässig, hoch, begrenzt und minimal – wobei strenge Vorschriften für hochriskante KI-Technologien in Bereichen wie Gesundheitswesen und Gesetzesvollzug gelten.
In Großbritannien hat die FCA ebenfalls Bedenken geäußert, dass der Einsatz von KI in der Versicherung dazu führen könnte, dass einige Personen „unversicherbar“ werden, aufgrund von Hyper-Personalisierung und potenzieller Diskriminierung.
Die Auswirkungen von KI auf die Versicherungsbranche
Die Einreichung verweist auf Erkenntnisse aus dem langfristigen Public Trust Index der CII, der auf Verbraucherforschung basiert, um Einstellungen gegenüber dem Versicherungssektor zu bewerten. Es wird festgestellt, dass KI das Potenzial hat, wichtige Bereiche zu verbessern, die von Verbrauchern und kleinen und mittleren Unternehmen (KMU) geschätzt werden – insbesondere Kosten, Schutz, Benutzerfreundlichkeit und Vertrauen.
Zur Unterstützung ihrer Governance-Empfehlungen hebt die CII ihre bestehenden Ressourcen hervor, einschließlich des Digital Companion zum Code of Ethics und ihrer Richtlinien zur Bekämpfung von Geschlechterbias in der künstlichen Intelligenz. Diese Werkzeuge sollen Fachleuten und Organisationen helfen, verantwortungsvolle KI-Praktiken zu übernehmen.
Die CII hat eine Reihe von Bildungsressourcen zu KI erstellt, um die berufliche Entwicklung zu unterstützen. Dazu gehören ein Einführungskurs in Datenwissenschaft und KI sowie CPD-Inhalte und Leitfäden, die die Vorteile und Risiken neuer Technologien untersuchen.
Was sind Ihre Gedanken zu dieser Thematik? Bitte teilen Sie Ihre Kommentare unten mit.