Die „Industrialisierung der Versicherungsbranche“ wird allerorten diskutiert. Es geht um schnellere Prozesse, eine höhere Automatisierung von Prozessabläufen und damit geringere Kosten und schließlich auch um die Servicequalität. Das Problem für die weitere Optimierung ist an vielen Stellen der hohe und sehr spezifische Informationsbedarf, wie z. B. bei der Beurteilung von medizinischen Behandlungen. Aber auch einfachere Prozesse leiden unter einem geringen Automatisierungsgrad. Hierzu gehört z. B. die Zuordnung des Posteingangs zu Kunden oder – einen Schritt komplexer – die Klassifikation der Geschäftsvorfälle.
Woran scheitert es? Laut einhelliger Meinung der Experten werden die vorhandenen Stammdaten nicht ausreichend in die Prozesse mit einbezogen. Wenn beispielsweise bei der Erfassung von Dokumenten nur Teile des Adressblocks berücksichtigt werden, dann ist nur selten der richtige Geschäftsvorfall automatisch erkennbar. Die Versicherten „verstecken“ oftmals wesentliche Angaben wie z. B. Adressen oder mitversicherte Personen im Fließtext. Erst recht bleiben weitergehende Informationen wie z. B. Vertragsnummern oder Vorgangsbezeichnungen bei der Dokumentenerfassung unberücksichtigt. Über die Gründe sind sich die innerhalb der Studie befragten Experten einig: nur 12,4 % gaben an, die Ergebnisse aus der Dokumentenerkennung konsequent mit den Stammdaten abzugleichen. Dies liegt in der Regel daran, dass die Datenmengen für die marktüblichen Systeme zu umfangreich sind. Denn diese sind für klassische Industrieunternehmen ausgelegt, die maximal mehrere hunderttausend Kunden und Produkte verwalten. Bei einer Versicherung jedoch kann die Anzahl der versicherten Personen und Verträge schnell in die Millionen gehen. „Bei dieser Menge an Bestandsdaten hilft oftmals nur eine spezialisierte Lösung zum Datenabgleich um die relevanten Informationen in einer hohen Qualität und mit schnellen Abgleichszeiten zu identifizieren“, berichtet Jürgen Bort, Senior Berater der Pentadoc AG, einem führenden Beratungsunternehmen der Dokumenten-Management-Branche. Und dies gilt erst recht, weil für eine hohe Erkennungsquote dieser Datenbankabgleich nach unscharfen Algorithmen erfolgen muss. Die Fehlertoleranz wirkt sich jedoch bei den meisten Systemen drastisch auf die Durchsatzgeschwindigkeit aus, insbesondere dann, wenn in Millionen von Referenzdaten gesucht werden soll. Daher berichten nur knapp zwei Prozent der Experten von einem unscharfen („fuzzy“) Abgleich der Stammdaten. „Wir gehen davon aus, dass der tatsächliche Anteil höher ist, nur dass die Beteiligten sich über das große Potential einer Optimierung an dieser Stelle nicht bewusst sind“, antwortet auf Rückfrage Exorbytes Geschäftsführer Benno Nieswand.
Exorbyte bietet mit MatchMaker eine Lösung für den unscharfen Datenbankabgleich an, die bereits in mehreren Versicherungsprojekten erfolgreich eingesetzt wird. „In diesen Projekten arbeiten wir mit diversen Kunden direkt zusammen“, erläutert Nieswand weiter. „Versicherungen haben oftmals alles ausgeschöpft, was sich aus der Zeichenerkennung und durch Hardware rausholen lässt. Aber sie beziehen ihre umfangreichen Stammdaten nicht konsequent in ihre Prozesse ein. Viele Kunden sind überrascht, wie viel Optimierungspotential noch genutzt werden kann durch eine unscharfe Suche, die auch zig Millionen Daten schnell und fehlertolerant durchkämmt.“
Die komplette Studie kann bei der Firma Exorbyte unter studie@exorbyte.com kostenlos angefordert werden.