Claus Moldenhauer, CIO und Vorstand der DAK, stellt einen Anwendungsfall aus dem Versorgungsmanagement vor. Versicherungen als rein datengetriebene Unternehmen profitieren besonders stark von Big Data. Die zweitgrößte deutsche Ersatzkasse setzt Big Data Technologie in der Steuerung von Finanzzuweisungen ein. Moldenhauer erklärt die Wirkungsweisen, die Strategieentwicklung und das Projektmanagement. Er geht auch auf Fehler ein und gibt einen Ausblick in die Zukunft.
Auch die Prozessindustrie kann mit Big Data typische Handlungsfelder wie Prozesse, Logistik, Sicherheit und Compliance weiter verbessern. Dr. Carl-Helmut Coulon, Head of Future Manufacturing Concepts der Invite GmbH, gibt mit seinem Vortrag „Big Data for Smart Operations in der Prozessindustrie“ Einblicke in die Prozessfertigung der Zukunft. Der ehemalige Bayer-Manager wechselte 2015 zum Think Tank Invite, den der Bayer-Konzern als Joint Venture mit der Universität Dortmund betreibt.
Drei Use Cases aus der Getränkeabfüllung präsentiert Dr. Peter Stelter, Vice President Strategie- und Technologiemanagement bei KHS, einem führenden Hersteller von Getränkeverpackungsmaschinen. Stelter verdeutlicht, wie Big Data das Tracking und Tracing der aseptischen Abfüllung, die Instandhaltung der Maschinen mit Condition Monitoring und die Mustererkennung mittels Data Mining verbessert.
Dr. Alain Bernard, Head of Technical Operation Business Excellence bei UCB, berichtet, wie der belgische Pharma-Konzern sein Wissensmanagement mit Hilfe von Big Data schneller und erfolgreicher macht. Er gibt Einblicke in das Projekt-, Change und Entwicklungsmanagement. In einem globalen forschenden Pharmaunternehmen mit Fokus auf schweren Krankheiten fällt jeden Tag viel neues Wissen an. Hinzu kommt die riesige Menge der vorhandenen Informationen. Eine schnelle und intelligente Analyse und Verteilung dieses Wissens stärkt die Innovationskraft und erhöht die Heilungschancen der Patienten.
Mit Data Driven Services in der Prozessindustrie beschäftigt sich Andreas Weber, Vice President Business Development und Bereichsleiter Technical Services der Evonik Technology & Infrastructure GmbH. Webers Thesen: Die Digitalisierung verändert Wertvorstellungen und Wertschöpfungsketten in der Prozessindustrie und Daten sind die Energie der Industrie 4.0. Sie würden kundenzentrierte Geschäftsmodelle erst ermöglichen. Als Beispiel nennt er Predictive Maintenance, die zu neuen Service- und somit Geschäftsmodellen im Anlagenbau führen kann. Eine spannende Frage: Wird der Kunde künftig eine Anlage kaufen oder nur noch einen Service?
Die Weidmüller Holding GmbH & Co. KG setzt auf Predictive Analytics in Energie- und Maintenance-Prozessen. Der Hersteller von elektrischer Verbindungstechnik drosselt so einerseits Kosten und gewinnt andererseits Erkenntnisse für die eigenen Produkte und Services. Dr. Jan Stefan Michels, Leiter Standard- und Technologieentwicklung der Weidmüller Interface GmbH & Co. KG, gibt in seinem Vortrag Einblicke in diesen praxisnahen Entwicklungsansatz.
Die Deutsche Bahn ist mit zwei Referenten vertreten - aus der IT und aus dem Business. Dr. Markus Albrecht vom Bereich IT-Strategie und Standards der DB Mobility Logistics AG arbeitet federführend an der Digitalisierungsstrategie der Bahn. In seinem Vortrag führt er aus, welche Rolle Big Data dabei spielt und wie die neue Technologie technisch und organisatorisch im Konzern verankert wird.
Ivana Dedus, Leiterin Analysen, Berichte und Personalsteuerung der Deutschen Bahn AG, testet Big Data zur Optimierung von Fluktuationssteuerung und Personalgewinnung. Bei rund 300.000 Mitarbeitern leuchtet es ein, dass die Echtzeitanalyse großer Datenmengen neue Korrelationen zutage fördert, die wiederum Ansatzpunkte für strategisches Handeln liefern.
Big Data und Marketing werden gerne in einem Atemzug genannt. Zu Recht, denn die Echtzeitanalyse großer Datenmengen eröffnet dem Marketing völlig neue Perspektiven. Große Medienunternehmen entwickeln Big-Data-getriebene Geschäftsmodelle. Catherin Anne Hiller, Director Research & Consulting, der Bauer Media Group, beleuchtet in ihrem Vortrag, wie der Medienkonzern Big-Data-Technologie für neue Services und Produkte implementiert. Dabei geht sie besonders auf Analyse und Interpretation ein, denn Big-Data-Auswertungen bringen – im Gegensatz zur klassischen Business Intelligence – Antworten auf Fragen, die man gar nicht gestellt hat, die aber dennoch neue Geschäftschancen in sich bergen. Es sind nicht zuletzt die überraschenden Korrelationen, die Big-Data-Analysen so spannend machen.
Big Data stellt die klassische Marktforschung von den Füßen auf den Kopf. Wozu noch Interviews und Experimente, wenn man alle relevanten Informationen aus webbasierten Datenanalysen gewinnen kann? Marktforschungsunternehmen müssen sich diesen neuen Umständen schnell anpassen. Zwei Vorträge beschäftigen sich mit neuen Big-Data-basierten Modellen in der Marktforschung.
Robert Wucher, Head of Technology und Dr. Ralph Wirth, Head of Data Lab, beide bei GfK, beschreiben, wie das größte deutsche Marktforschungsinstitut mit Hilfe von Big Data bessere analytische Modelle entwickelt. Aktuelle Beispiele sind Optimierungen in der Online Media Planung oder bei Produkt-Launches. In der Entwicklung sind Big-Data-Projekte in den Bereichen Forecasting, Hypothesentests und Social Media.
Alteingesessen in der Marktforschungsbranche ist die Psyma-Gruppe, die gemeinsam mit der Softwareschmiede Epoq, einer Tochter der Schober-Gruppe, die data2face GmbH gegründet hat. Deren Chef Dr. Marcus Mende beschreibt in seinem Vortrag, wie die data2face-Software alle User einer Website in Echtzeit anhand von Click-Daten mit Hilfe künstlicher Intelligenz klassifizieren kann. Dabei kommen semantische Analysen zum Einsatz, um Verhaltensähnlichkeiten zu identifizieren. Das Netz als Datenquelle und Maschinen als Auswerter machen menschliche Arbeit weitgehend überflüssig. Psyma bringt die Interpretationskompetenz eines Marktforschungsunternehmen in dieses Joint Venture ein. Ein interessantes Beispiel für digitale Transformation in reifen Branchen.
Dass sich ein CRM mit Big Data ganz beträchtlich aufbohren lässt, zeigt Maria-Amparo Sanmateu, Senior Project Manager bei den T-Labs, einem Innovations-Think-Tank der Deutschen Telekom. Die intelligente Echtzeit-Verknüpfung von Social Media und anderen Web-Informationen mit dem CRM eröffnen dem Nutzer völlig neue Ansätze im Vertriebsprozess.
Einen Anwendungsfall aus dem Qualitätsmanagement präsentiert AMG-CIO Reinhard Breyer. Die Verarbeitung und Visualisierung zehntausender Datenpunkte in Sekunden im Rahmen einer SAP-HANA-Anwendung beschleunigt die Motorenprüfung, reduziert die Kosten und verbessert die Produktentwicklung, weil die Echtzeitanalyse riesiger Datenmengen Schwächen bereits in der Prüfung aufdeckt, die sonst erst viel später aufgefallen wären.
Wo stehen wir heute technologisch und was sind die nächsten Schritte? Diese Frage versucht Dr. Franz-Josef Pfreundt zu beantworten. Er ist Leiter High Performance Computing am Fraunhofer Institut für Techno- und Wirtschaftsmathematik e.V. (ITWM). Heutige Big-Data-Infrastrukturen wie Splunk oder Hadoop stoßen bei hochkomplexen Vorhersagen an Performance-Grenzen. Pfreundt sieht Technologiesprünge im Machine Learning, besonders beim Deep Learning, als Ausweg. Diese würden letztlich zu einer neuen Big-Data-Infrsatruktur führen, die auf High Performance Computing und Künstlicher Intelligenz beruhe.
Weil der klassische Entwicklungsweg bei der Entwicklung eines neuen Produkts in eine Sackgasse führte, setzte der Hochfrequenztechnik-Spezialist Spinner auf Big-Data-basierte Simulationen. Stark fallende Kosten für High Performance Computing und Big Data Software ermöglichten den Bayern das wenige Jahre zuvor noch zu teure Verfahren für hochkomplexe Simulationen anzuwenden. Für Dr. Christoph Neumaier, Innovationsmanager der Spinner GmbH, ist die überraschendste Erkenntnis, dass die Entwickler völlig neue gute Lösungen fanden, die sie mit dem klassischen Verfahren nie gefunden hätten. Wie es dazu kam, erläutert er in seinem Vortrag.
Für den Logistikkonzern Hellmann Worldwide Logistics ist die Einführung von Big Data Analytics ein strategisches Projekt. Zunächst wurden Anwendungsfälle identifiziert, sodann Informations- und Datenkataloge erstellt. Die IT-Systeme mussten erweitert, neue Aufgaben und Rollen in der Aufbau-Organisation geschaffen werden. Wie gut das geklappt hat und wie es weiter geht, skizziert Dr. Saskia Untiet-Kepp, Manager Global Information Systems bei Hellmann.
Ein Innovationsprojekt des Siemens-Konzerns stellt Peter Wiener vor, Vice President Remote Services bei Siemens Healthcare. Es geht um den Aufbau eines neuen Rechenzentrums, das speziell für Big Data entwickelt wurde.
Die Beiträge sind sehr verschieden. Aber eine gemeinsame Basis gibt es: Big Data wirkt in der Praxis immer disruptiv. Die intelligente Echtzeitanalyse riesiger Mengen strukturierter, semistrukturierter und unstrukturierter Daten mit neuen Technologien ist eben nicht BI in neuem Gewand, sondern die Basis neuer Geschäftsmodelle, neuer Produkte und neuer Prozesse. Unternehmen müssen diese Themen – auch kulturell – beherrschen, um wettbewerbsfähig zu bleiben. Der Strategiedialog Big Data bietet Gelegenheit, auf diesem Weg wertvolle Anregungen von Kollegen und Beratern zu bekommen.