Die Anwendung von KI auf Luftbilder erhöht die Compliance-Risiken für Versicherer
Die Nutzung von Künstlicher Intelligenz (KI) spielt zunehmend eine Rolle bei der Verwendung von Luftbildern durch Versicherer zur Bestimmung der Immobiliendeckung. Versicherer sollten Richtlinien für den Einsatz von KI in Verbindung mit Luftbildern festlegen. Die Vorschriften können stark variieren, und KI kann eine Transparenzlücke bei der Verwendung von Bildern vergrößern.
Regulierungsansätze
Bundesstaaten, die den Einsatz von Luftbildern regulieren, tun dies in der Regel durch Vorschriften und nicht durch Gesetze. Die NAIC, die Vereinigung der staatlichen Versicherungsregulierer, prüft, wie KI zur Auswahl und Anwendung von Luftbildern bei Deckungsentscheidungen verwendet wird.
Richtlinien und Herausforderungen
Beim Einsatz von KI-Systemen für Luftbilder setzen Versicherer Richtlinien für deren Verwendung. Es wird betont, dass KI als Leitfaden für die Beurteilung des Zustands einer Immobilie dienen sollte, jedoch sollten Fragen zur Genauigkeit der Daten gestellt werden. Beispielsweise könnte es Unklarheiten darüber geben, ob ein sichtbares Objekt auf dem Bild tatsächlich Schutt oder der obere Teil eines Baumes ist.
Risiken für Versicherer
Die Anwendung von KI bei Entscheidungen über Luftbilder schafft zusätzliche Risiken für Versicherer. Viele Bundesstaaten weisen eine große Lücke auf: Klare Anforderungen an die Benachrichtigung über die Verwendung von Luftbildern fehlen häufig, was dazu führt, dass Hausbesitzer oft nicht wissen, dass solche Daten ihre Entscheidungen auf Policenebene beeinflusst haben. Dies erschwert es ihnen, negative Entscheidungen anzufechten oder zu kontextualisieren.
Verantwortung der Versicherer
Wie bei anderen Anwendungen von KI sind Versicherer weiterhin für die Ergebnisse KI-gestützter Entscheidungen verantwortlich. Trotz der Verwendung von KI bleibt die Möglichkeit von Fehlern bestehen, auch bei geschultem Personal. Versicherer, die Drittanbieter zur Bereitstellung von Kriterien für die Risikobewertung nutzen, sind für die Verwendung dieser Daten verantwortlich, unabhängig von deren Richtigkeit.
Schlussfolgerung
Die NAIC hat ein Modellbulletin zur KI herausgegeben, das 2023 veröffentlicht wurde, und plant ein Evaluierungstool für KI-Systeme im Rahmen regulatorischer Anfragen. Ziel ist es, zu verstehen, wie KI verwendet wird, um sicherzustellen, dass sie nicht auf eine Weise eingesetzt wird, die gegen Handelspraktiken verstößt oder unrechtmäßige Vorurteile offenbart.