Forschung : Wie bekommt man Big Data in den Griff?

Fraunhofer Austria Big Data Dashboard
© Fraunhofer Austria

Das österreichische Zentrallager ist riesig. Mehrere hundert Standorte werden von hier aus beliefert. Und es ist hochautomatisiert. Dass es Optimierungsbedarf gab, wurde erst nach einiger Zeit sichtbar. „In diesem Lager gibt es ein hochkomplexes Zusammenspiel von Lager-, Förder- und Kommissioniertechniken“, erzählt Philip Ramprecht, Fachexperte für Lager- und Kommissioniersysteme bei Fraunhofer Austria. „Bei einer bestimmten Pick-Anzahl und einer gewissen Zusammensetzung der Aufträge kam es aber zu Performance-Einbrüchen.“

Also fingen die Fraunhofer-Forscher an, sich durch die gesammelten Daten zu wühlen. Und stießen dabei auf zwei Hindernisse. Einerseits waren die Daten zwar umfangreich, stammten aber aus unterschiedlichsten Quellen, was dementsprechend diverse Formate zur Folge hatte. Andererseits reichten die historischen Daten nur sechs Wochen zurück, womit etwa saisonale Schwankungen nicht abgebildet werden konnten.

Das Team des Fraunhofer-Geschäftsbereichs Produktions- und Logistikmanagement begann mit dem Sammeln von Daten. Vielen Daten. Der Bestand deckt heute bereits zwei Jahre ab und wird wöchentlich aktualisiert. In Zahlen: rund 100 Millionen Buchungszeilen aus mehreren hundert Einzeldateien.

Erst die Analyse dieses Datenmonsters brachte den Fehler im System ans Licht – die Performance ist heute stabil. Die Grenzen von Excel sind bei solchen Datenmengen längst überschritten. Und auch die Intuition erfahrener Logistiker reicht hier nicht mehr aus.

Die Grenzen der Intuition

„Das Thema Big Data gewinnt in der Logistik immer schneller an Relevanz“, sagt Martin Riester, Gruppenleiter Logistiksysteme und Transport bei Fraunhofer Austria. Noch vor einigen Jahren mussten nur Händler in Amazon-Dimension oder große Logistikdienstleister wie die Post damit umgehen, doch vor allem der E-Commerce hinterlässt auch hier deutliche Spuren: Steigende Datenmengen, viele kleine Bestellungen von vielen unterschiedlichen Kunden, zunehmende Retouren – die Zahl der Order Lines geht steil nach oben.

Gleichzeitig erhöht sich die Zahl der Unternehmen, die mit Big Data konfrontiert sind. Angesichts des Drucks, in Richtung Omnichannel zu gehen, haben auch viele kleinere Unternehmen Online-Shops eröffnet. „Aber die wenigsten sind sich darüber im Klaren, was das eigentlich bedeutet. Sie unterschätzen die Datenmengen und die Komplexität der Prozesse“, erlebt Martin Riester. Denn der Schritt in Richtung Online verändere die gesamte Auftragsstruktur.

In einem weiteren Schritt denken immer mehr Unternehmen über Automatisierung nach, vor allem, um 24-Stunden-Betrieb zu ermöglichen. Automatisierungslösungen müssen aber extrem exakt ausgelegt sein, betont Philip Ramprecht, „hier können bereits Fehler im Nachkommabereich gravierende Folgen haben“. Was wiederum bedeutet: Je größer die Datenmenge, auf deren Basis man die Auftragsstruktur analysiert, desto besser die Prognostik und damit die Planung automatisierter Lösungen.

Die Entwicklung verändert auch die Art der Projekte bei Fraunhofer Austria. „Früher konnten wir manches auch aus dem Bauch heraus planen, konnten Lösungen aus ähnlichen Branchen übertragen“, erzählt Ramprecht. „Doch heute sind die Abläufe teilweise so komplex, dass sogar Automatisierungslösungen für einzelne Sortimentsbereiche entwickelt werden. Mit Intuition kommt man da oft nicht weit.“

Neue Verbündete

Und damit betreten vermehrt neue Berufsgruppen die Logistik-Bühne: Mathematiker und Informatiker, die gemeinsam mit den Logistikern „LIM-Teams“ bilden. Sowohl bei Fraunhofer selbst, die in Tirol eine eigene Data-Scientists-Abteilung gegründet haben, als auch in den Unternehmen.

Philip Ramprecht spricht von einer Symbiose: „Wir Logistiker können Daten in dieser Dimension nicht mehr bewältigen, aber die Mathematiker verfügen über kein Domainwissen. Die Logistiker müssen ihnen also sagen, was sie überhaupt auswerten sollen.“ Domainwissen ist auch nötig, um Artefakte in den Daten zu erkennen. Womit die Intuition ja doch noch ihr Recht behauptet.

Descriptive Analytics als Forecasting-Basis

Die Big-Data-Projekte von Fraunhofer folgen meist einem sehr ähnlichen Schema.

- Im ersten Schritt geht es darum, Daten aus unterschiedlichsten Quellen und in unterschiedlichsten Formaten zusammenzuführen. Hierfür entwickelten die Experten den Fraunhofer „Data Squid“. So entsteht ein konsolidierter Datenpool. „Automatisierte Anlagen generieren ganz andere Daten als das WMS oder das ERP“, sagt Martin Riester. „Auch die Qualität der Daten ist sehr unterschiedlich, vor allem dann, wenn Mitarbeiter Daten manuell generieren oder kommentieren.“

- Häufig geht es in dieser Phase auch darum, Datenlücken zu schließen. Fraunhofer Austria hat dafür mit der Duck Box eine Sensoreinheit entwickelt, die – mit Magneten an Flurförderzeugen befestigt – sämtliche relevante Daten via Ultraschall und RFID erfasst, woraus wiederum Heatmaps und Ladezustandsgrafiken generiert werden können. So lassen sich etwa auch unnötige Leerfahrten erkennen. Über die Duck Box wird die Datensammlung einerseits granularer. Vor allem im Handelsbereich ist die Erfassung von Schwankungen unter der Woche wichtig. Gleichzeitig wird der Erfassungszeitraum verlängert. „Die Auslegungszeiträume müssen möglichst groß sein“, sagt Martin Riester, „wir sprechen im Optimalfall von mehr als zwei Jahren.“

- Nach der Bereinigung der Daten um fehlerhafte Datensätze geht es in die Datenanalyse. Big Data ermöglicht das Generieren logistischer Kennzahlen, die auch tägliche, saisonale oder jahresbedingte Schwankungen abbilden. Bis zum Punkt der Datenanalyse sind schon die Hälfte bis zwei Drittel des Projekts vorbei, erzählt Philip Ramprecht.

- Erst im vorletzten Schritt werden passende Predictive- und Prescriptive-Analytics-Methoden wie beispielsweise Forecasting- und Machine-Learning-Algorithmen ausgewählt und implementiert. Zuletzt erfolgt das Erstellen von User-Interfaces oder Dashboards für die Unternehmen. Eine Visualisierung relevanter Prognosen und Kennzahlen, die als Steuerungs- und Controlling-Instrument extrem wertvoll ist.

Dem zeitlichen und finanziellen Aufwand, den solche Projekte mit sich bringen, stellt Martin Riester den Benefit gegenüber: „Fehler in der Planung bedeuten ein Vielfaches an Folgekosten. Bei einer automatisierten Lösung, die über zehn Jahre abgeschrieben wird, steht der Aufwand für ein bisschen mehr Datenanalyse in keinem Verhältnis mehr zum möglichen Schaden.“

Dass das Anwendungsgebiet über automatisierte Läger hinausgeht, zeigt das Beispiel eines heimischen Sonderfahrzeugbauers, der angesichts komplexer Produktstrukturen seine Lagerstrategie hinterfragte. Die umfangreichen Daten des Unternehmens wurden, wie Philip Ramprecht es ausdrückt, „mit verschiedenen Brillen betrachtet“: Nach der Analyse von Konfigurationen, regionalen Unterschieden und unterschiedlichen Einsatzzwecken fertigt das Unternehmen heute proaktiv die „richtigen“ Fahrzeuge.

Mit Auswirkungen bis in den Showroom: Dort stehen heute nicht mehr Fahrzeuge, die „alle Stückeln spielen“, sondern jene, die tatsächlich nachgefragt werden.