Im Zentrum von BigPro stand die Entwicklung eines Prototypen, der auf Basis von Big Data das Reaktionsmanagement bei Störungen verbessern und damit die durch Maschinenausfälle entstehenden Kosten senken sollte. Dazu entwickelten die Projektbeteiligten eine Plattform, die heterogene Datenströme aus unterschiedlichsten Quellen wie angebundene Anlagen, im Einsatz befindliche IT-Systeme oder Rückmeldungen von Maschinenführern erfassen, verarbeiten und miteinander in Beziehung setzen konnte.
Auf dieser Basis war das System anschließend in der Lage, die jeweiligen Datenkonstellationen in Echtzeit unterschiedlichen Störungsmustern zuzuordnen und so bei sich anbahnender Übereinstimmung bereits im Vorfeld Maßnahmen vorzuschlagen, um einem tatsächlichen Produktionsausfall der Maschine zuvorzukommen. Die Wartungsprozesse selbst unterstützte das System in Form eines Maßnahmenkatalogs, dessen Vorschläge je nach historischer Erfolgsquote im jeweiligen Kontext dynamisch priorisiert sowie bei Bedarf durch die Dokumentation neuer Lösungsansätze erweitert wurden. Zum Einsatz kam der Prototyp sowohl in der Demonstrationsfabrik Aachen als auch in realen Anwendungsszenarien bei den Industriepartnern Bosch und Auto Heinen.
Den Datenmassen einen Sinn geben
„Wenn es um innovative Anwendungsszenarien in der digitalen Fabrik geht, dauert es meist nicht lange, bis das Zauberwort ‚Big Data‘ fällt. Dabei zeigt die Praxis, dass die Erfassung großer Datenmengen allein meist nicht für die gewünschten Zwecke ausreicht“, erklärt Christian Leopoldseder, Managing Director Austria bei der Asseco Solutions. „Mit dieser Problematik sahen sich auch die Projektbeteiligten bei BigPro konfrontiert: Die Maschinen übertrugen in Echtzeit ihre Identifikation sowie unterschiedliche technische Werte. Doch mit diesen isolierten Daten allein ließ sich im ersten Schritt nicht viel anfangen. Um wirklich praxisrelevante Schlussfolgerungen abzuleiten, ist Kontext nötig: Wo steht die besagte Maschine? Wann war ihre letzte Wartung? Trat die Störung bereits in der Vergangenheit auf? Wie wurde diese damals gelöst? Wie lange hat das gedauert? Ohne eine solche Einordnung nützen die Datenmassen eines Big-Data-Szenario gar nichts. Nur wenn sie automatisiert und in Echtzeit mit Daten aus anderen Quellen in Beziehung gesetzt werden, entsteht ein unmittelbarer Nutzen für die Praxis.“
Asseco unterstützt mit Industrie-4.0-Expertise
Um den Datenmassen im BigPro-Projekt eine entsprechende Bedeutung zu geben, entwickelte die Asseco Solutions eine Datenhaltungsschicht, welche die eingehenden technischen Datenströme mit Metadaten aus weiteren Systemen anreicherte und so zu unmittelbar nutzbaren Informationen machte. Als Grundlage hierfür konzipierte Asseco auf Basis seiner ERP-Expertise eine zentrale Datenhaltung, den BigPro DataStore, der als Schnittstelle zwischen allen beteiligten Systemen fungierte. Die Informationen zu möglichen Maßnahmen zur Störungsbehebung wurden ebenfalls in dem von Asseco entwickelten DataStore hinterlegt. Auch hier bildete die Kombination mit Daten aus weiteren Quellen die Basis für die dynamische Priorisierung der Vorschläge: Indem im BigPro-System dokumentiert wurde, welche Maßnahme bei welcher Störung am häufigsten gewählt wurde und zum Erfolg führte, konnte das System bei jedem Wartungseinsatz die erfolgversprechendsten Maßnahmen automatisiert hervorheben.
Bereits seit einigen Jahren legt die Asseco einen starken Fokus auf Themen wie Digitalisierung und smarte Fabrik. Die Grundlage für die Entwicklung des Datenmodells lieferte daher die hauseigene Industrie-4.0-Expertise aus bestehenden Kundenprojekten. So bietet die Asseco-Lösung SCS Kunden unter anderem die Möglichkeit, ihre Maschinen an die Cloud anzubinden und deren Betriebsdaten – beispielsweise zu Predictive-Maintenance-Zwecken – in Echtzeit zu analysieren. Die hierbei gesammelte Praxiserfahrung zur Verarbeitung und Auswertung von übertragenen Maschinendaten konnte der ERP-Spezialist in das BigPro-Forschungsprojekt miteinfließen lassen. So wurden zum Design des DataStores dasselbe Tool und dieselben Methoden verwendet, die auch in der Praxis in SCS zum Einsatz kommen.
Spezialwissen des Kunden unerlässlich
„Spiegelbildlich dazu haben auch wir im BigPro-Projekt viel gelernt und neue Erkenntnisse gewonnen, die wir nun in die Weiterentwicklung von SCS und APplus zurückfließen lassen wollen – beispielsweise was Möglichkeiten betrifft, in der Praxis die Brücke zum Internet der Dinge zu schlagen“, ergänzt Marco Bux, Senior Product Manager bei Asseco und federführend für die Entwicklung der BigPro-Datenmodelle. „Auch die Bedeutung der Expertise des Kunden wurde uns im Forschungsprojekt vor Augen geführt. So waren wir in einer der Praxisanwendungen mit einem Temperatur- und Druckverlauf in den Daten konfrontiert, den wir uns zunächst nicht erklären konnten. In einem solchen Fall ist das spezifische Fachwissen des Kunden unerlässlich, der selbst der beste Experte für seine Fertigung ist und daher weiß, wie einzelne Daten zu verstehen und zu deuten sind. Zusätzlich zum Kontext durch weitere Datenquellen ist damit auch das Spezialwissen des Kunden eine unerlässliche Komponente, Daten in Big-Data-Szenarien sinnvoll zu interpretieren und für die Praxis nutzbar zu machen.“