Ist Insurtech eine risikobehaftete Anwendung von KI?

Ist Insurtech eine Hochrisiko-Anwendung von KI?

Insurtech, der Einsatz von Künstlicher Intelligenz (KI) im Versicherungswesen, steht im Mittelpunkt zahlreicher Diskussionen über Risiko und Regulierung. Während zahlreiche KI-Vorschriften auf Unternehmen im Insurtech-Bereich Anwendung finden können, sind diese Gesetze in ihren Anforderungen nicht einheitlich. Viele dieser Vorschriften konzentrieren sich auf unterschiedliche regulatorische Konstrukte, wobei der Fokus des Unternehmens bestimmt, welche Verpflichtungen für es gelten.

Was ist ein „Hochrisiko-KI-System“?

Obwohl viele Bereitstellungen, die in einer Gerichtsbarkeit als „Hochrisiko-KI-System“ gelten, in einer anderen Gerichtsbarkeit ebenfalls diese Kategorisierung erfüllen können, definiert jede Regulierung den Begriff technisch unterschiedlich. Das EU-KI-Gesetz verfolgt einen schrittweisen, risikobasierten Ansatz für die Compliance-Verpflichtungen für betroffene Unternehmen. Mit anderen Worten: Je höher das Risiko, das mit dem KI-Einsatz verbunden ist, desto strenger sind die Anforderungen für die Nutzung der KI durch das Unternehmen.

Unter Artikel 6 des EU-KI-Gesetzes wird ein KI-System als „hochriskant“ angesehen, wenn es beide Bedingungen des Unterabschnitts (1) erfüllt oder wenn es in die Liste der als hochriskant betrachteten KI-Systeme fällt, die in Anhang III des EU-KI-Gesetzes aufgeführt sind. Dazu gehören KI-Systeme, die mit biometrischen Daten umgehen, zur Bewertung der Anspruchsberechtigung von natürlichen Personen für Leistungen und Dienste, zur Bewertung der Kreditwürdigkeit oder zur Risikobewertung und Preisgestaltung im Zusammenhang mit Lebens- oder Krankenversicherungen verwendet werden.

Ist Insurtech als Hochrisiko einzustufen?

Sowohl das Colorado-KI-Gesetz (CAIA) als auch das gescheiterte Virginia-KI-Gesetz identifizieren ausdrücklich, dass ein KI-System, das eine entscheidende Entscheidung über Versicherungen trifft, als „hochriskant“ gilt. Dies schafft den Eindruck, dass es einen Trend zur Regulierung der KI-Nutzung im Insurtech-Bereich als hochriskant gibt. Es ist jedoch wichtig zu beachten, dass die bloße Einbeziehung von Versicherungen in die Liste der „entscheidenden Entscheidungen“ dieser Gesetze nicht bedeutet, dass alle Insurtech-Anwendungen von KI zwangsläufig als hochriskant eingestuft werden müssen. Beispielsweise wird ein KI-System unter dem CAIA nur dann als hochriskant eingestuft, wenn es bei der Bereitstellung „eine entscheidende Entscheidung trifft oder ein wesentlicher Faktor bei der Entscheidungsfindung ist“.

Darüber hinaus erfordert das EU-KI-Gesetz eine umfassende Analyse, um festzustellen, ob das KI-System ein signifikantes Risiko für die Gesundheit, Sicherheit oder Grundrechte von Individuen darstellt. Selbst wenn ein KI-System in eine der Kategorien im Anhang III fällt, kann es, sofern eine dokumentierte Analyse zeigt, dass die Bereitstellung des KI-Systems kein signifikantes Risiko darstellt, nicht als hochriskant angesehen werden.

Was tun, wenn Sie ein „Hochrisiko-KI-System“ entwickeln oder bereitstellen?

Unter dem CAIA kommen verschiedene Verpflichtungen ins Spiel, wenn es um ein hochriskantes KI-System geht. Diese Verpflichtungen variieren für Entwickler und Bereitsteller des KI-Systems. Entwickler sind verpflichtet, auf ihrer Website offenzulegen, welche hochriskanten KI-Systeme sie bereitgestellt haben und wie sie bekannte oder voraussehbare Risiken der algorithmischen Diskriminierung managen.

Zusätzlich müssen Entwickler die Colorado AG und alle bekannten Bereitsteller des KI-Systems innerhalb von 90 Tagen nach Entdeckung benachrichtigen, wenn das KI-System eine algorithmische Diskriminierung verursacht hat oder wahrscheinlich verursachen wird. Bereitsteller haben unterschiedliche Verpflichtungen, wenn sie ein hochriskantes KI-System nutzen. Sie müssen Verbraucher benachrichtigen, wenn das hochriskante KI-System eine entscheidende Entscheidung über den Verbraucher trifft oder einen wesentlichen Faktor bei der Entscheidungsfindung spielt.

Die Verpflichtungen für hochriskante KI-Systeme im EU-KI-Gesetz umfassen ebenfalls eine Vielzahl von Anforderungen, darunter die Implementierung eines Risikomanagementsystems, die Validierung und das Testen von Datensätzen sowie die Gewährleistung von Transparenz und der Möglichkeit der menschlichen Aufsicht über die KI-Systeme.

Da der Insurtech-Bereich parallel zu den sich entwickelnden Regelungen zur KI in den USA wächst, ist ein bewusster Umgang mit den rechtlichen Dynamiken erforderlich, um das Wachstum der Branche zu fördern.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...