Die meisten Methoden und Algorithmen entstanden bereits vor Jahrzehnten. In den letzten Jahren wurden sie immer besser nutzbar, da die Hardware (Prozessoren, Speicher) immer leistungsfähiger geworden ist. Die Herausforderung besteht weniger in der Entwicklung neuer Algorithmen oder neuer Methoden als darin, große Datenmengen und die Zusammenhänge in diesen Daten zu verstehen, zu interpretieren und zu analysieren. Auf dieser Basis können KI-Ansätze mit echtem Mehrwert für die Unternehmen aufgesetzt werden.
Bei mip setzt man den Fokus auf die Beratung anstatt auf die genutzten Frameworks oder Standard-Produkte. „Nur wer die hinterlegten komplexen mathematisch-statistischen Verfahren des Machine Learning und Deep Learning, wie etwa neuronale Netze, sowie das jeweilige Unternehmen versteht, kann einen wirklichen Mehrwert schaffen“, weiß Jörg Kremer, Head of Consulting bei der mip Management Informationspartner GmbH.
Predictive Analytics bedienen sich keiner neuen Methoden. Es ist eine bekannte Disziplin, in der heute dank steigender Rechnerkapazitäten mehr möglich ist als früher. Mit mehr CPU und RAM liefern Machine- und Deep-Learning-Verfahren schnellere Antworten und ermöglichen komplexere Algorithmen und Verfahren. „Verfahren, die in den 90er Jahren teilweise Tage liefen, kommen mit moderner Hardware heute mit immer besseren Antwortzeiten – teilweise ad hoc – zu guten Lösungen.“
Die Herausforderung ist herauszufinden, was in einem Unternehmen an Daten vorhanden ist und welche Informationen für aussagekräftige Auswertungen passend zum Unternehmenszweck benötigt werden. Der Vorteil für Unternehmen, die mit mip arbeiten, ist der Anspruch der Berater zu verstehen, welche Verfahren warum angewendet werden und ihr tiefgreifendes Wissen. „Wir verlassen uns nicht auf automatisierte Produkte – wir verstehen die Algorithmen, können sie so zielgerichtet einsetzen und den gegebenfalls eingesetzten Standard zielgerichtet erweitern. Wir bieten nicht KI von der Stange, sondern maßgeschneiderte Lösungen.“
Hürden in BI-Projekten
BI-Projekte sind alles andere als einfach, zeigt die Erfahrung von Jörg Kremer. Deshalb ist die grundlegende Voraussetzung herauszufinden, wie die Ausgangssituation und die Wünsche (bewusst und unbewusst) im Unternehmen aussehen. Auf der Basis aller für die Auswertung vorhandenen Daten werden zunächst im Rahmen eines Data Profiling die Daten ausgewählt, mit denen erfolgsversprechend gearbeitet werden kann. Diese Daten werden dann analysiert und im Dialog mit dem Kunden entstehen dann die Ansätze, wo es Sinn macht KI-Verfahren einzusetzen und auch den Scope der Verfahren (etwa die Vorausschau von Marktentwicklungen) abzuleiten. Erst dann erfolgen der Aufbau der notwendigen Infrastruktur und die Umsetzung der Modelle. KI-Projekte sind typischerweise iterativ und kommen in mehreren Schleifen zu einem immer besseren Ergebnis bzw. immer besseren Vorhersagen oder Entscheidungen.
Die Hürde laut Kremer ist immer, den tatsächlichen Mehrwert für die Analyse herauszuarbeiten. Unternehmen verfügen über endloses Datenmaterial und haben oft keine Vorstellung, was sie damit tun sollen. „Hier lohnt es sich, Zeit zu investieren.“ Gemeinsam mit den Menschen im Unternehmen, die die Prozesse am besten verstehen, entwickeln die Berater von mip Anwendungsfälle, die zeigen, was aus den Daten nutzbringend herausgeholt werden kann.
„Die technische Umsetzung am Ende ist noch am einfachsten – man weiß, was man will und welches Verfahren angewendet werden soll, denn es wurde auf Basis aller ermittelten Daten spezifisch ausgewählt.“
Für den Projekterfolg – Fokus auf der Beratung anstatt auf dem Produkt
Die Berater und ihr gesammeltes Wissen sind der entscheidende Teil in erfolgreichen Projekten, so Kremer. Anstatt die notwendige Zeit in die Vorarbeit zu investieren, werden Analysen oft auf ein zugekaufte Tool beschränkt, das im besten Falle noch zugeschnitten, aber nicht hinterfragt wird.
Dabei ist oft kein Verfahren in Standardprodukten vorhanden, das perfekt auf jedes Unternehmen passt. Deshalb setzt mip auch auf Eigenentwicklung. Individualsoftware wird mit entsprechenden Algorithmen kombiniert, das Ergebnis ist ein Mix aus vorgefertigten Services und eigenem Code, der einem Unternehmen spezifisch angepasst ist. „Wir schauen immer, wie gut ein fertiger Analyseservice ist und was dazu gegeben werden muss.“
Rückblick:
Teil 3 der Artikelserie „Intelligente Datenintegration“: Warum von einem modernen Data Warehouse jedes Unternehmen profitiert
Ausblick:
Teil 5 der Artikelserie „Intelligente Datenintegration“: Predictive Analytics in der Fertigung