Noch nicht angekommen
Bei aller Euphorie für das Thema hat das Big-Data-Zeitalter bei der Assekuranz in Deutschland noch nicht wirklich begonnen. 58 Prozent der Finanzunternehmen bearbeiten in BI-Lösungen weniger als zehn Terabyte an Daten. Nur vier Prozent verarbeiten in ihren Data Warehouses Datenmengen jenseits der 100-Terabyte-Marke.
- Big Data: Versicherer auf Schatzsuche
- Noch nicht angekommen
Auch die verantwortlichen Manager sehen den Nutzen noch eher skeptisch. In der Wahrnehmung der Versicherungsentscheider erreicht der Trend Big Data nicht einmal eine mittlere Relevanz (2,11 von möglichen 5 Punkten). Flexible Werkzeuge für schnelle, individuelle Analysen (Self-Service-BI), klare Regelwerke und Definitionen (BI-Governance) und die stärkere Verzahnung von Business Intelligence und Tagesgeschäft (Operational BI) bewerten sie als deutlich wichtiger. Erstaunliche 44 Prozent der für die biMA-Studie befragten Entscheider aus Versicherungen und Banken stimmen der These zu, Big Data verfüge über keinen zusätzlichen Nutzen, da es sich lediglich um ein Hypethema handele. Im Schnitt aller Branchen sind nur 26 Prozent dieser Meinung.
Anzeige
Auch die oftmals als Paradebeispiel für mögliche Big-Data-Analysen genannten Informationen aus sozialen Medien spielen noch keine wirklich große Rolle für Versicherer. Die gefühlte Allgegenwärtigkeit von sozialen Medien im privaten Umfeld wird häufig eins-zu-eins auf Geschäftsbereiche projiziert. Zwar sind 75 Prozent der von Steria Mummert Consulting für die Studie „Nachhaltige Wertschöpfung“ befragten Versicherer bei Facebook aktiv, ein Viertel bei Twitter und immerhin noch 13 Prozent bei Youtube. Doch die Aktivität bei deren Facebook-Auftritten fällt bisher noch nicht üppig aus. Im Durchschnitt fiel 2011 nur rund ein inhaltlicher Beitrag, ein so genannter Post, pro Tag und Seite an: Selbst der Spitzenreiter der Studie, die R+V Versicherung, hatte nur 801 Posts im ganzen Jahr, der Branchenprimus Allianz Deutschland 285 Posts. Daher werden BI-Systeme noch selten für die Auswertung von Social Media genutzt.
Für das geringe Aufkommen in den Social Media und den wenigen hier vorhandenen Daten sind Big-Data-Instrumente noch wenig sinnvoll. Daher stufen Versicherungsmanager die Relevanz des Themas „SocialMedia-Analyse“ gerade einmal mit einer 1,61 von möglichen 5 Punkten ein. Damit landet es auf dem vorletzten Platz aller 15 abgefragten BI-Trendthemen. Ganz oben stehen hingegen Operational BI, BI Governance und Self-Service-BI.
Versicherer verrennen sich
Geblendet von der Angst, einen wichtigen Trend zu verpassen und Möglichkeiten nicht auszuschöpfen, ist Big Data immer häufiger Thema in den Chefetagen. Dabei stehen sich die Versicherer aber vielfach selbst im Weg. Projekte werden zwar schnell losgetreten. Doch diesen Projekten fehlt oftmals die wohlüberlegte strategische Basis. Die Verheißungen des Modebegriffs Big Data verführen dazu, schnell in komplexe Technologiediskussion abzudriften, ohne vorher die wichtigsten Fragen zu stellen: Was ist unser Ziel? Was möchten wir mit den Informationen anfangen? Wie sieht der konkrete Big-Data-Anwendungsfall aus?
Der fehlende oder unvollständige Anwendungsnutzen führt im Laufe der Projekte zu großer Ernüchterung hinsichtlich der vermeintlichen Wundertechnologie, die derzeit unter dem Label Big Data vertrieben wird. Ganze 44 Prozent aller Big-Data-Projekte werden daher nicht zu Ende geführt, meldet die texanische Beratungsfirma Infochimps. Technologie kann strategische Entscheidungen nicht ersetzen. Trotzdem unterliegen manche Unternehmen dem Irrglauben, sie müssten vorher nicht so genau wissen, wonach sie suchen, Big-Data-Technologie würde das Problem schon irgendwie lösen.
Hürden überwinden
Vorsicht ist also geboten, wenn die Hoffnungen hinter einem neuen Big-Data-Projekt allzu groß sind. Schließlich muss man sich fragen, ob die bestehenden Daten überhaupt schon hinreichend genutzt werden. Denn schon bisherige BI-Verheißungen wurden zum Teil nicht eingelöst. So liefern die über Jahre durch dezentral initiierte BI-Projekte gewachsenen BI-Lösungen häufig nicht den ursprünglich adressierten Nutzen zur Entscheidungsunterstützung, weil trotz allem keine performanten, konsistenten und qualitativ hochwertigen Informationen vorliegen. Fragmentierte Informationssilos, heterogene Architekturen, uneinheitlich definierte Kennzahlen und Auswertungsobjekte aber insbesondere auch fachliche und technische Intransparenz bezüglich Qualität, Verarbeitung und Herkunft der Daten sind nach wie vor Charakteristika, die viele BI-Landschaften auch bei Versicherern beschreiben.
Die Herausforderung schlechthin im BI-Bereich stellt die Datenqualität dar. BI-Projekte scheitern oft an mangelnder Datenqualität. Für 42 Prozent der Versicherungsentscheider ist sie die größte Herausforderung für BI-Projekte. Ein Beispiel sind Personalabteilungen, die aufgrund von redundanten und uneinheitlichen Daten oftmals nicht berichtsfähig sind. 47 Prozent der befragten Unternehmen sind mit der Datenqualität im Personalbereich unzufrieden. Ein Grund dafür ist der noch immer hohe Anteil an manueller und nicht standardisierter Datenintegration, die fehleranfällig ist. Ungenügendes Datenmanagement, mangelnde Standardisierung und Industrialisierung verhindern stabile, flexible und skalierbare Daten. Wenn Assekuranzen schon ihre bisherigen BI-Systeme nicht im Griff haben, sollten sie sich nicht unüberlegt in ein neues BI-Projekt stürzen.
Der menschliche Faktor
Schließlich ergeben sich aus den nicht vollständig eingelösten Verheißungen der BI der Vergangenheit vielfach auch erhebliche Herausforderungen, die zukünftigen Anwender zu begeistern. Die Informationssilos der Versicherer haben als Gesamtlösung in den Augen der Endanwender häufig über die Jahre die notwendige Akzeptanz verloren. So sinkt die Bereitschaft, in weiteren BI-Projekten oder gar Big-Data-Vorhaben mitzuwirken. Im Gegenteil: Aus der Unzufriedenheit heraus entstehen neue isolierte Bypass-Lösungen für weitere spezielle Anwendungsfelder, die die Komplexität und Intransparenz weiter steigern. Für die BI-Verantwortlichen ergibt sich daraus eine besonders herausfordernde Situation: Zeigt der Blick in den Rückspiegel, dass die Versprechen leider nicht immer gehalten werden können, steigt hinsichtlich der Zukunft die Unsicherheit. Bleibt der zu erwartende Tsunami an Informationen beherrschbar? Wie kann die Roadmap vom übertriebenen Hype hin zur nachhaltigen Innovationen gefunden werden?
Fazit
Viele Entscheider in der Versicherungsbranche halten Big Data für ein Hypethema, hinter dem nicht viel steckt. Sie glauben teilweise zu recht, dass die Lösung Big Data ihre Probleme erst noch sucht. Denn Versicherer werten ihre Kundendaten schon seit Jahrzehnten aus und versinken nicht selten bereits in „Small“ Data.
Um in Zukunft neben Small auch Big Data gerecht zu werden, müssen Versicherer neue Denkmuster lernen. Die Versicherer-IT braucht ein neues analytisches Ökosystem, das aus flexiblen Elementen besteht, die bei definierten Freiheitsgraden miteinander agieren. BI-Systeme müssen sich demzufolge in der Zukunft von starren und zentralistischen Strukturen und IT-Architekturen lösen. Durch stärkere Standardisierung und Industrialisierung und einen dezentralen Ansatz muss ein Ausgleich zwischen konkurrierenden Zielen wie Flexibilität und Agilität auf der einen und Qualität und Effizienz auf der anderen Seite geschaffen werden. BI-Systeme der Zukunft werden mit vielen optionalen Komponenten zur Verfügung gestellt werden, die zum Beispiel jeweilige Big-Data-Anwendungsfälle durchaus auch nur für einen beschränkten zeitlichen Zeitraum unterstützen. Die einzelnen Komponenten bieten bestimmte Leistungen zur Datenbereitstellung und -analyse in Form definierter Services an. Je nachdem, was ein Anwender vorhat, stellt er eine Lösung durch eine Kombination dieser Services zusammen. Das bedingt eine definierte technische Heterogenität mit unterschiedlichen Speicher-, Integrations- und Analysetechnologien. Doch der Weg zu diesem „Analytical Ecosystem of the Future“ ist noch lang und nur mit vielen kleinen Umbauschritten zu erreichen.
Autoren: Klaus-Dieter Schulze, Dr. Carsten Dittmar und Volker Oßendoth von Steria Mummert Consulting
Anzeige
Hintergrund:
Die Studie „biMA®2012/13“ (Business Intelligence Maturity Audit) wurde nach den Jahren 2004, 2006 und 2009 nun bereits zum vierten Mal durchgeführt. Dabei kommen die Teilnehmer erstmals nicht nur aus dem deutschsprachigen Raum, sondern aus 20 europäischen Ländern. Mit mehr als 650 Teilnehmern gehört die Studie zu einer der größten Analysen zum Thema Business Intelligence in Europa. Die methodische Basis bilden das von Steria Mummert Consulting entwickelte BI-spezifische Reifegradmodell Business Intelligence Maturity Model (biMM®) sowie die darauf aufbauende Analysemethode Business Intelligence Maturity Audit (biMA®).
- Big Data: Versicherer auf Schatzsuche
- Noch nicht angekommen