Ist Insurtech eine Hochrisiko-Anwendung von KI?
Insurtech, der Einsatz von Künstlicher Intelligenz (KI) im Versicherungswesen, steht im Mittelpunkt zahlreicher Diskussionen über Risiko und Regulierung. Während zahlreiche KI-Vorschriften auf Unternehmen im Insurtech-Bereich Anwendung finden können, sind diese Gesetze in ihren Anforderungen nicht einheitlich. Viele dieser Vorschriften konzentrieren sich auf unterschiedliche regulatorische Konstrukte, wobei der Fokus des Unternehmens bestimmt, welche Verpflichtungen für es gelten.
Was ist ein „Hochrisiko-KI-System“?
Obwohl viele Bereitstellungen, die in einer Gerichtsbarkeit als „Hochrisiko-KI-System“ gelten, in einer anderen Gerichtsbarkeit ebenfalls diese Kategorisierung erfüllen können, definiert jede Regulierung den Begriff technisch unterschiedlich. Das EU-KI-Gesetz verfolgt einen schrittweisen, risikobasierten Ansatz für die Compliance-Verpflichtungen für betroffene Unternehmen. Mit anderen Worten: Je höher das Risiko, das mit dem KI-Einsatz verbunden ist, desto strenger sind die Anforderungen für die Nutzung der KI durch das Unternehmen.
Unter Artikel 6 des EU-KI-Gesetzes wird ein KI-System als „hochriskant“ angesehen, wenn es beide Bedingungen des Unterabschnitts (1) erfüllt oder wenn es in die Liste der als hochriskant betrachteten KI-Systeme fällt, die in Anhang III des EU-KI-Gesetzes aufgeführt sind. Dazu gehören KI-Systeme, die mit biometrischen Daten umgehen, zur Bewertung der Anspruchsberechtigung von natürlichen Personen für Leistungen und Dienste, zur Bewertung der Kreditwürdigkeit oder zur Risikobewertung und Preisgestaltung im Zusammenhang mit Lebens- oder Krankenversicherungen verwendet werden.
Ist Insurtech als Hochrisiko einzustufen?
Sowohl das Colorado-KI-Gesetz (CAIA) als auch das gescheiterte Virginia-KI-Gesetz identifizieren ausdrücklich, dass ein KI-System, das eine entscheidende Entscheidung über Versicherungen trifft, als „hochriskant“ gilt. Dies schafft den Eindruck, dass es einen Trend zur Regulierung der KI-Nutzung im Insurtech-Bereich als hochriskant gibt. Es ist jedoch wichtig zu beachten, dass die bloße Einbeziehung von Versicherungen in die Liste der „entscheidenden Entscheidungen“ dieser Gesetze nicht bedeutet, dass alle Insurtech-Anwendungen von KI zwangsläufig als hochriskant eingestuft werden müssen. Beispielsweise wird ein KI-System unter dem CAIA nur dann als hochriskant eingestuft, wenn es bei der Bereitstellung „eine entscheidende Entscheidung trifft oder ein wesentlicher Faktor bei der Entscheidungsfindung ist“.
Darüber hinaus erfordert das EU-KI-Gesetz eine umfassende Analyse, um festzustellen, ob das KI-System ein signifikantes Risiko für die Gesundheit, Sicherheit oder Grundrechte von Individuen darstellt. Selbst wenn ein KI-System in eine der Kategorien im Anhang III fällt, kann es, sofern eine dokumentierte Analyse zeigt, dass die Bereitstellung des KI-Systems kein signifikantes Risiko darstellt, nicht als hochriskant angesehen werden.
Was tun, wenn Sie ein „Hochrisiko-KI-System“ entwickeln oder bereitstellen?
Unter dem CAIA kommen verschiedene Verpflichtungen ins Spiel, wenn es um ein hochriskantes KI-System geht. Diese Verpflichtungen variieren für Entwickler und Bereitsteller des KI-Systems. Entwickler sind verpflichtet, auf ihrer Website offenzulegen, welche hochriskanten KI-Systeme sie bereitgestellt haben und wie sie bekannte oder voraussehbare Risiken der algorithmischen Diskriminierung managen.
Zusätzlich müssen Entwickler die Colorado AG und alle bekannten Bereitsteller des KI-Systems innerhalb von 90 Tagen nach Entdeckung benachrichtigen, wenn das KI-System eine algorithmische Diskriminierung verursacht hat oder wahrscheinlich verursachen wird. Bereitsteller haben unterschiedliche Verpflichtungen, wenn sie ein hochriskantes KI-System nutzen. Sie müssen Verbraucher benachrichtigen, wenn das hochriskante KI-System eine entscheidende Entscheidung über den Verbraucher trifft oder einen wesentlichen Faktor bei der Entscheidungsfindung spielt.
Die Verpflichtungen für hochriskante KI-Systeme im EU-KI-Gesetz umfassen ebenfalls eine Vielzahl von Anforderungen, darunter die Implementierung eines Risikomanagementsystems, die Validierung und das Testen von Datensätzen sowie die Gewährleistung von Transparenz und der Möglichkeit der menschlichen Aufsicht über die KI-Systeme.
Da der Insurtech-Bereich parallel zu den sich entwickelnden Regelungen zur KI in den USA wächst, ist ein bewusster Umgang mit den rechtlichen Dynamiken erforderlich, um das Wachstum der Branche zu fördern.