Warum Versicherer den Einsatz von Künstlicher Intelligenz (KI) nach wie vor kritisch sehen
Generell gibt es multiple Anwendungsszenarien, die beim Einsatz von KI für Versicherer interessant sind. Aber: In zwei ganz entscheidenden Arbeitsfeldern ist es zum jetzigen Zeitpunkt nur eingeschränkt vorstellbar, dass sich die Versicherer zu 100 % auf KI (Künstliche Intelligenz) verlassen könnrn. Dort befinden sich hochkritische Grenzbereiche, die gerade für Versicherer eine extrem hohe Priorität haben, beim Einsatz von Technologie aber immer noch zu Fehlern führen.
von Jan Schmidt, helden.de
Viele Versicherer nutzen Chatbots für den direkten Kontakt mit dem Kunden. Hier ergibt ein wohldosierter Einsatz Sinn und stellt den nächsten logischer Schritt ergänzend zur persönlichen Beratung dar.1. Customer Care
Versicherer können mit Hilfe von Deep-Learning-Verfahren Chatbots mit dem Supportverlauf ihres Customer-Care-Services trainieren. Hierfür wird oftmals Re-inforced Learning genutzt. Die Technologie übernimmt auf Basis eines Deep-Q-Networks das Scoring für Antworten. Das System holt sich bei positiven, wohlwollenden Antworten eine Belohnung und verstärkt so die Wahrscheinlichkeit eines entsprechenden Ergebnisses bei gegebenem Input. Im Negativfall wird hier ein gegenteiliger, das Scoring abwertender Effekt erzielt.
Kontext-Bewertung als Schwachstelle
Um Gespräche auch im Kontext maschinell einzuordnen zu bewerten, sollten diese mit Long-Short-Term-Memory-Netz verknüpft werden, da ansonsten jeglicher Kontext zwischen verschiedenen Inputs verlorengeht. Zentraler Angelpunkt sind hier FAQ-Bots. Sie liefern Kunden schnell Antworten auf oft gestellte Fragen und entlasten den Support, der dadurch mehr Zeit für reale Kundengespräche hat, in denen etwa komplexe Fragestellungen abgearbeitet werden können.
Um nun aber auch anspruchsvollere Fragestellungen von einem Bot beantworten zu lassen, wären hochkomplexe generative Pre-Trained-Transformer-Modelle erforderlich. Der Haken dabei: Diese lassen sich aktuell noch nicht in einer zufriedenstellenden Qualität umsetzen.
Vor diesem Hintergrund wäre der Verzicht auf den menschlichen Faktor – gerade im Versicherungsumfeld – fatal. Denn:
Versicherungen sind – immer noch! – Vertrauenssache. Bots dagegen sind immer noch Maschinen. Sie führen bei Kunden zu gefühlter Unmenschlichkeit. Dieses Kernproblem der Industrie spiegelt sich auch in den hohen Zahlen beim Versicherungsbetrug wider.”
Und Stand der Dinge ist ein menschlicher gut trainierter Agent nach wie vor der beste Berater, weil er auf individuelle Wünsche und Bedürfnisse des Kunden eingehen kann.
Ein weiterer Ansatz der maschinellen Unterstützung stellen einfache vektorbasierte Machine Learning (ML)-Algorithmen dar. Dazu zählen etwa Word 2 Vec // Doc 2 Vec oder sogar das simple „Bag of Words“ zum Zwecke der Dokumentenklassifizierung. Letztere Lösungen befinden sich auch aktuell im Einsatz. Die „Bag of Words“ unterstützt bei der automatisierten Vorsortierungen der von Kunden, Fremdversicherern oder Gutachtern eingehenden Dokumente. Dadurch können sie direkt den Fachabteilungen zugänglich gemacht werden.
2. Fraud Detection / Risk Scoring
Autor Jan Schmidt, helden.de2016 gründete Jan Schmidt helden.de (Webseite) mit dem Ziel, die Versicherungswelt durch Produkte, die wieder den Menschen ins Zentrum der Versicherungen rücken, besser und verständlicher zu gestalten. Es ist nicht das erste Unternehmen des studierten Wirtschaftsinformatikers: Bereits mit zwanzig Jahren gründete Jan Schmidt sein erstes Unternehmen im Softwarebereich. Zuletzt leitete er eine Agentur für digitale Lösungen mit internationalen Kunden in den Bereichen E-Commerce, Insurance und Banking. Heute kümmert er sich als COO von helden.de um das operative Geschäft sowie alle technischen Prozesse.
Im Allgemeinen repräsentieren die Schadensabwicklung sowie das Risikoscoring im Onboarding Kernbereiche eines jeden Versicherers. Sie genießen allerhöchste Priorität. Kunden wünschen eine möglichst schnelle und unkomplizierte Bearbeitung ihrer Schadensfälle, respektive eine Schnelle Ab- oder Zusage ihrer Versicherungspolice.
Leider ist das Thema Betrug natürlich immer von hoher Relevanz für Versicherer. Und das sollte es auch für die Versicherten sein. Denn: Mehr Betrug bedeutet im Umkehrschluss höhere Beiträge. Das hohe Betrugsrisiko führt zu einem höheren manuellen Aufwand bei der Bearbeitung der Schadensfälle und der Angebotsabgabe sowie dadurch auch zu längeren Schadens- und Angebotsbearbeitungszeiten. Das ist weder im Sinne der Kunden noch der Versicherer.
Supervised vs. Unsupervised Learning
Daher besteht natürlich ein großes Interesse der Versicherer, diesen Prozess zu optimieren und zu beschleunigen. Dies gelingt etwa über ML-Technologien wie zum Beispiel Supervised Learning. Das erfordert eine große Menge an Testdaten (Input), die durch Datamining vorkategorisiert und durch entsprechende Features definiert sind. Dagegen sind beim Unsupervised Learning sowohl Features als auch Filter nicht genau bekannt, die Kategorisierung der unsortierten Input-Daten wird hier also durch das System selbst vorgenommen.
Und:
Auf Grund der Transparenz- und Nachvollziehbarkeitsvorgaben der DSGVO empfiehlt sich ein nicht auf Deep Learning basierendes System.”
Deep Learning benötigt große, möglichst nicht anonymisierte Datenmengen, um gute Ergebnisse zu erzielen.
Dieses steht im Gegensatz zu der gesetzlich geforderten Datensparsamkeit.”
Außerdem ist auf Grund der Natur eines Deep-Learning-Artifical-Neural-Networks der Entscheidungsfindungsprozess weitaus weniger transparent. Teilweise ist es sogar sehr schwer bis unmöglich, diesen zu rekonstruieren. Das konterkariert wiederum die geforderte Nachvollziehbarkeit der Entscheidungen nach DSGVO.
Vor diesem Hintergrund erscheinen statistische Scoring-Modelle auf Basis traditioneller ML-Algorithmen und unter Zuhilfenahme von Supervised Learning als der erfolgversprechendere Weg. Natürlich darf so ein Algorithmus alleine auf Basis seines Scorings keine Schadensmeldung selbsttätig ablehnen. Im positiven Falle ist ein Akzeptieren und Anstoßen der Regulierung dagegen mach- und denkbar. Bei negativem Scoring dürfen Versicherer auf die Intelligenz einer menschlichen Arbeitskraft als „letzte Kontrollinstanz“ keinesfalls verzichten, auch um Diskriminierung, verursacht durch ein entsprechend trainiertes Modell, zu erkennen und zu verhindern. Denn wie fehleranfällig Supervised Learning etwa bei Selektionsvorgängen sein kann, das zeigt ein Vorfall bei Amazon. Dort kam es im Rahmen des KI-gestützten Bewerbungsprozesses zu diskriminierenden Personalentscheidungen. (https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G).
Fazit
Nicht nur aus den oben genannten Gründen bedarf der Einsatz von KI im Versicherungsumfeld einer sorgfältigen ethischen, aber auch rechtlichen Prüfung.
Deshalb fordern viele Experten einen gesetzlichen Rahmen, der zum Beispiel die Transparenz-Anforderungen von Algorithmen präzise definiert. Daran arbeitet aktuell auch die EU.”
Sie will mit dem Artificial Intelligence Act ein Gesetz auf den Weg bringen, das den Einsatz von KI branchenübergreifend regulieren soll. Inwieweit dabei die Besonderheiten der Versicherungswirtschaft berücksichtigt werden, ist noch unklar. Aber: Der Mensch steht im Mittelpunkt, deshalb sollten diese Lücken geschlossen werden.Jan Schmidt, helden.de
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/143841
Schreiben Sie einen Kommentar