Digitale Devise für Versicherungsunternehmen: “Big Data Analytics-Projekte erfordern Mut und Offenheit”
Die Projektinitialisierung für Big Data Analytics setzt einen wichtigen Teil der Digitalisierungs-Strategie eines Versicherungsunternehmens um. Nur ein zeitnaher und konsequent nüchterner Einstieg in die Welt der Big Data Analytics schafft genug Vorsprung angesichts der wachsenden globalen Wettkampflage von FinTechs, InsTechs, Online-Portalen, Apps und mittlerweile auch branchenfremden digitalen Playern. Die Anleitung für den erfolgreichen Big-Data-Einstieg.
von Heiko Harders,
Mitglied der Geschäftsleitung viadico
Unter dem Oberbegriff Big Data Analytics verbirgt sich eine ganze Reihe von individuellen Herausforderungen. Naturgemäß muss das neugierige, mit den besten Werkzeugen ausgestattete Spezial-Team individuell und zum Teil experimentell beginnen. Mit wachsender Erfahrung werden die Konturen der Datenräume und Datenanalysen und deren Nutzen immer deutlicher. Das einzuschlagende Vorgehen ist vergleichbar mit dem Aufwachen in einem fast 100% abgedunkelten Raum, durch den man vorsichtig, aber zunehmend selbstsicher laviert, da sich die Augen mit laufender Zeit und Übung an die Dunkelheit gewöhnen. Große Offenheit und Mut sind beim Aufsetzen eines Big Data Analytics-Projektes nötig. Denn eine neue Kultur des „Trial and Error“ ist auf Management-Ebene zunächst nicht schmerzlos zu etablieren und gleichwohl bei diesem Thema mit Einschränkungen alternativlos.
Für ein Big Data Analytics-Explorationsteam sind Ausrüstung, Spezialkenntnisse und Schlüsselqualifikationen unerlässlich. Was genau braucht es und wer tut was?”
Fünf relevante Schlüsselaktivitäten für alle Big Data Analytics-Projekte
1. Sammeln, Speichern und Pre-Filtern von relevanten strukturierten und unstrukturierten Datenquellen/Datenströmen inner-/außerhalb des Unternehmens (z. B. aus CRM, Agentur, Partner, Antrag, Vertrag, Bestand, Briefen, E-Mail, Call-Center, Social-Media, LinkedIn, XING, SCHUFA, …)
2. Entwickeln von genaueren und fortschrittlicheren Analysemodellen, die auf fachspezifischen Indikatoren beruhen (z. B. Kundendaten/-wissen/-loyalität/-verhalten/-emotionen/-meinungen, Weiterempfehlung, Beruf, Hobbies, …)
3. Ableiten und Generieren von neuem Wissen durch Identifizieren von (Verhaltens-) Mustern, Abhängigkeiten und Trends basierend auf effizienteren Analyse- und Korrelationsmodellen und weiteren innovativen Ansätzen und Algorithmen
4. Aufzeigen von Geschäftspotenzial in digitalen Vertriebs- und Bestands-Use Cases auf Basis der neuen Erkenntnisse durch Anreicherung, Filterung und Optimierung
5. Systemintegration, Datenintegration und Betrieb z. B. nach dem Konzept der „IT der zwei Geschwindigkeiten“.
Autor Heiko HardersHeiko Harders ist Diplom-Mathematiker und Mitglied der Geschäftsleitung bei der viadico GmbH, Herzogenrath. Die viadico GmbH ist eine Unternehmensberatung für Versicherungsunternehmen und arbeitet beim Thema Big Data Analytics mit Hewlett Packard Enterprise zusammen.
Big Data Analytics-Ausrüstung
Bei der Planung des Big Data Analytics-Projektes hat man mit den üblichen Einwänden der Skeptiker zu tun: „Man kann doch auch mit unseren bereits vorhandenen SQL-basierenden Reporting- und Business-Intelligence Tools arbeiten, ohne große Investitionen zu tätigen.“
Ja – aber nur auf den produktiven und dispositiven Datenbeständen des Versicherungs-unternehmens. Sofern man den Fokus nur auf die internen strukturierten Daten setzt, ist das schon lange möglich und mittlerweile Status Quo. Will man aber zu wirklich neuen Erkenntnissen kommen und den gesamten Data Lake der internen und explizit ausgewählten externen Quellen und Datenströme erforschen, so ist der Einsatz einer modernen Big Data Analytics-Plattform und eines ausgereiften Analysebaukastens unerlässlich.
Auf der einen Seite sind semi-strukturierte (E-Mail etc.) und unstrukturierte Daten (Briefe, Call Center etc.) zu erforschen, die im Versicherungsunternehmen bereits vorgehalten werden. Auf der anderen Seite befinden sich außerhalb des Versicherungsunternehmens mannigfaltige und mächtige Datenströme (Social Media etc.), die jetzt durch moderne Technologien in Echtzeit exploriert werden können. Letztendlich entsteht erst durch die Analyse und gezielte Verknüpfung dieser beiden Seiten der wünschenswerte Mehrwert von Big Data Analytics.
Übersicht großer Hersteller im Analytics-Markt (Ende 2015):
Data Analytics Platform | Hersteller |
Haven (Vertica, IDOL) | Hewlett Packard Enterprise |
EMC | Pivotal Greenplum |
Netezza | IBM Puredata |
Oracle Exadata and Oracle Exalytics | Oracle Exadata |
Actian Matrix, ParAccel | Actian |
Teradata Aster Big Analytics Appliance | Teradata Aster |
Amazon Redshift (powered by ParAccel) | Amazon Redshift, amazon webservices |
Cloudera Impala Real-Time Query | Cloudera impala |
MySQL, Cassandra, MongoDB, etc. | Open source |
SAP HANA | SAP |
Analytics Tool | Hersteller |
R | Open Source, R GNU-Project |
SAS | SAS Institute |
SPSS | IBM |
Matlab | The MathWorks |
Big Data Analytics braucht Spezialkenntnisse
Ist die Entscheidung für die Ausrüstung gefallen, fehlt noch das adäquate Projektteam für Big Data Analytics. Bei der Zusammenstellung der Mitarbeiter sollte auf möglichst komplementäre Skills aus unterschiedlichen Herkunftsdomänen geachtet werden.
Den größten Erfolg verspricht ein Projektteam aus internen und externen Mitarbeitern, das:
– Fachverständnis der Lebensversicherungsdomäne im Vertrieb, Betrieb, Aktuariat und Produktentwicklung besitzt
– den Zugriff auf die relevanten Daten durch IT- und Programmier-Know-how ermöglichen kann
– wertschöpfende Einblicke und neue Erkenntnisse mittels mathematischer Modellierung, Operations Research und Anwendung beschreibender Statistik gewinnen kann
– die Datenintegration für die Produktivsetzung und Systemintegration der Big Data Use Cases realisiert.
Erfolgskritische Schlüsselqualifikationen
Versicherungsmitarbeiter mit Basic-Skills können durch Learning by Doing und/oder gezielt abgestimmtem Training die für den erfolgreichen Big Data Analytics-Einsatz notwendigen Schlüsselqualifikationen erwerben. Parallel wird es Koordinatoren, Moderatoren, Big Data Technologie-Experten und aktuarielle Data Scientisten in der Initialphase brauchen.
Folgende Analytics-Schlüsselqualifikationen sind erfolgskritisch:
IT- und Programmierung | Ausprägungen |
Management von strukturierten Daten(formaten) |
· Structured Query Language (SQL) |
Management von unstrukturierten Daten(formaten) / Echtzeitdatenströmen |
· No-SQL Key-Value Datenbanken |
Natural Language Processing (NLP) und Textmining |
· Audio – Sprach(muster)erkennung |
Maschinelles un-/überwachtes Lernen |
· Random Forest, Entscheidungsbäume |
Big Data Konzepte / Architekturen |
· Hadoop (Open-source) |
Math. Modelle / OR / Statistik | Ausprägungen |
Optimierung |
· lineare, ganzzahlige, konvexe Optimierung |
Mathematikbasis |
· lineare Algebra |
Graphentheorie, graphische Modelle | · soziale Netzwerke – Social Media Analytics |
Simulation |
· diskrete Simulation |
Stochastische Prozesse |
· Markov-Ketten |
Data Mining und Visualisierungstools |
· R |
Statistische Modellierung |
· allgemeine lineare Modelle |
Daten regelkonform analysieren und vernünftig auswerten
Big Data Analytics birgt viele Details, die Thematik ist sehr komplex. Trotzdem gilt: Bange machen gilt nicht. Wer, wenn nicht die Versicherungswirtschaft, verkauft virtuelle Produkte und Lösungen seit Jahrhunderten par Excellence.
Das Versicherungsunternehmen erfindet sich in Teilen gerade neu – im Sinne eines bald 100 Prozent datengetriebenen Unternehmens. „Big Data anzapfen und nutzen“ lautet die digitale Devise für mutige Versicherungsunternehmen.
Nicht zuletzt Googles Geschäftsmodell, gigantische Mengen an Informationen zu strukturieren, zu sortieren und zu verschlagworten, hat auch andere Unternehmen wie Amazon und Facebook auf den Geschmack gebracht, immer mehr Daten zu sammeln und zu analysieren.
Nur eines darf man nicht vergessen: man muss sich den Daten mit vernünftigen Hypothesen nähern und sie dann mit modernen intelligenten Werkzeugen interpretieren, sonst sind sie nutzlos. Das heißt, die beiden wichtigen Leitplanken Datenschutz und gesunder Menschenverstand haben weiterhin Gültigkeit.aj
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/30579
Schreiben Sie einen Kommentar