Scoring-Modelle in der Lieferkettensteuerung : Cloud-Technologien werden zum Treiber der Supply-Chain-Resilienz

IT ai analytics artificial backup big broadband business center centre cloud computer computing concept connection data data center database digital equipment hard drive hardware hologramm industry information infrastructure intelligence internet network networking neural processing rack room science server service station storage supercomputer support system technology telecommunication virtualisation visualization it ai analytics artificial backup big broadband business center centre cloud computer computing concept connection data data center database digital equipment hard drive hardware hologramm industry information infrastructure intelligence internet network networking neural processing rack room science server service station storage supercomputer support system technology telecommunication virtualisation visualization
© Gorodenkoff - stock.adobe.com

Die Organisation und Kontrolle von Lieferketten ist keine neue Entwicklung – bereits in der Antike, etwa entlang der Seidenstraße, wurde die Logistik gezielt gesteuert. Mit der industriellen Revolution und der Globalisierung stieg die Komplexität der Supply-Chain-Prozesse jedoch drastisch an, was zur Entwicklung mathematischer Modelle und neuer Managementansätze führte. Heute sind Unternehmen mit immer anspruchsvolleren Anforderungen konfrontiert: Die Transparenz innerhalb der Lieferketten muss erhöht, gesetzliche Vorgaben wie das Lieferkettensorgfaltspflichtengesetz (LkSG) eingehalten und Risiken in der Beschaffung sowie Compliance-Bereiche konsequent überwacht werden. Gleichzeitig sind Effizienzsteigerungen essenziell, um wettbewerbsfähig zu bleiben. All dies erfordert eine Vielzahl an präzisen Berechnungen – sie tragen zur Optimierung des Lieferkettenmanagements bei, stellen jedoch auch eine Herausforderung hinsichtlich der Beherrschbarkeit der Prozesse dar.

Lieferkettengesetz, ICS2, ATLAS & Co.: Diese gesetzlichen Einschränkungen haben Unternehmen 2024 beschäftigt >>

Komplexe Berechnungen als Basis für verlässliche Prognosen

Um Bedarfsprognosen zu erstellen, Lagerbestände zu optimieren und Engpässe zu vermeiden, greifen Unternehmen auf Methoden wie Zeitreihen- und Regressionsanalysen zurück. Die Berechnung optimaler Bestellmengen, Sicherheitsbestände und Nachbestellpunkte ist essenziell, um eine hohe Lieferfähigkeit bei möglichst geringen Lagerkosten zu gewährleisten. 

Zudem werden komplexe Bewertungsmodelle und Multi-Kriterien-Analysen eingesetzt, um die besten Lieferanten auszuwählen. Auch die Optimierung von Transportrouten und das Flottenmanagement, etwa durch das Traveling Salesman Problem oder lineare Programmierung, tragen zur Kostensenkung bei. 

Darüber hinaus spielen die Kalkulation der Gesamtkosten – von der Beschaffung über die Lagerhaltung bis zum Transport – sowie präzise Budget- und Kostenprognosen eine zentrale Rolle. Ebenso erfordert die Produktionsplanung fundierte Berechnungen zur Kapazitäts- und Materialbedarfsplanung, um Fertigungsprozesse effizient zu steuern. Diese umfassenden Datenanalysen zielen darauf ab, die Effektivität und Effizienz entlang der gesamten Supply Chain, im Einkauf und in der Beschaffung nachhaltig zu verbessern.

Daten als Grundlage für präzise Analysen

Für belastbare Berechnungen und Prognosen sind umfassende Datenquellen erforderlich, die sowohl strukturierte als auch unstrukturierte Informationen umfassen. ERP-Systeme liefern beispielsweise Daten zu Beständen, Bestellungen, Lieferanten, Produktionsplänen und Finanztransaktionen. 

Warenwirtschaftssysteme erfassen den Warenfluss und verwalten Lagerbestände, Bestellvorgänge sowie Warenein- und -ausgänge. Transportmanagementsysteme bieten detaillierte Einblicke in Lieferwege, Transportzeiten, Frachtkosten und Flottensteuerung. 

Lieferantendatenbanken enthalten entscheidungsrelevante Informationen zu Lieferanten, deren Leistungskennzahlen, Preisen, Lieferzeiten und Qualitätsbewertungen. Ergänzend liefern Echtzeitdaten aus Sensoren und IoT-Geräten Informationen zu Maschinenzuständen, Lagerbeständen, Transportfahrzeugen und Umweltbedingungen. 

Externe Datenquellen – etwa Markt- und Wirtschaftsdaten, Wetterprognosen oder geopolitische Einschätzungen – vervollständigen das Bild.

Traditionelle Methoden werden Komplexität nicht gerecht

In vielen Unternehmen werden die Supply-Chain-bezogenen Analyse- und Berechnungsprozesse dieser Daten allerdings noch mit traditionellen Methoden und Systemen umgesetzt. Vielfach kommen beispielsweise noch geläufige Tabellenkalkulationsprogramme wie Excel dafür zum Einsatz, das zwar flexibel und weit verbreitet ist, aber Einschränkungen bei der Handhabung großer Datenmengen und auch bei der Automatisierung komplexer Prozesse aufweist. Zudem ist in Excel das Risiko für menschliche Fehler bei der Eingabe und hinsichtlich möglicher Manipulation von Daten recht hoch. 

Auch ERP-Systeme werden in vielen Unternehmen für die Berechnungen herangezogen, obschon sie komplex und teuer in der Implementierung und Wartung sind und oft nicht die erforderliche Flexibilität bieten, um spezifische Anforderungen und schnelle Anpassungen vorzunehmen. Oft werden auch veraltete Softwaresysteme für die Analysen genutzt, die weder den aktuellen Anforderungen entsprechen noch die nötige Flexibilität und Skalierbarkeit bieten. Weit verbreitet sind zudem manuelle Prozesse, die sowohl zeitaufwendig als auch fehleranfällig sind und somit die Reaktionsfähigkeit des Unternehmens negativ beeinflussen. 

Fehlende Integration zwischen verschiedenen Systemen und Datenquellen ist ein weiteres, häufig auftretendes Problem, das zu Datensilos und so zum mangelhaften Informationsfluss und geringer Transparenz führt. Des Weiteren beeinträchtigen unvollständige, inkonsistente oder veraltete Daten die Genauigkeit der Analysen und somit auch die Qualität der zu treffenden Entscheidungen. Nicht selten fehlt außerdem entsprechend qualifiziertes Personal, das komplexe Datenanalysen erstellen und die Ergebnisse richtig interpretieren könnte. All diese Schwächen wirken sich negativ auf die Durchführung der erforderlichen Berechnungen aus, wodurch letztlich die Effizienz und Effektivität in der Supply Chain erheblich leidet.

Mit Cloud-Computing Wettbewerbsfähigkeit stärken

Cloud-Computing und webbasierte Services setzen an diesen Punkten an und helfen Unternehmen, ihre Supply-Chain-Prozesse zu modernisieren und so ihre Wettbewerbsfähigkeit zu stärken. Mit Cloudlogiken wie Logic-as-a-Service (LaaS) können Unternehmen, die für ihre komplexen Kalkulationen erforderliche Rechenleistung nach Bedarf skalieren ohne selbst in teure Hardware investieren oder deren Wartung übernehmen zu müssen. Eine Cloudlogik ermöglicht es zudem, große und komplexe Datensätze in Echtzeit zu analysieren; LaaS zum Beispiel nutzt hierfür kundenindividuelle Entscheidungslogiken und fortschrittliche Algorithmen, um Muster und Trends zu erkennen, die für die Optimierung der Lieferkette entscheidend sind. Auch die nahtlose Verbindung verschiedener Systeme und Datenquellen ist mit der Cloudlogik möglich, sodass sich die Gesamttransparenz erhöht. Des Weiteren sind auf Supply Chain und Beschaffung spezialisierte SaaS-Lösungen (Software-as-a-Service) verfügbar, die leicht zu handhaben sind, weil sie keine umfangreiche IT-Infrastruktur erfordern und eine benutzerfreundliche Oberfläche bieten.

Mit der Cloudlogik lassen sich zudem Scoring-Modelle entwerfen, die sich vorteilhaft für die Lieferantenauswahl und das Lieferantenmanagement nutzen lassen. Dank der Integration von Daten aus vielen unterschiedlichen Quellen entsteht eine umfassende Datenbasis für die Bewertung einzelner Lieferanten. Unternehmen können hierbei individuelle Kriterien – wie Kosten, Qualität, Nachhaltigkeit und Innovationsfähigkeit – festlegen und gewichten und auch Bewertungsskalen einrichten, um Konsistenz und Vergleichbarkeit herzustellen. Mit den cloudbasierten Algorithmen lässt sich die Bewertung zudem in Echtzeit durchführen und automatisieren, wodurch Fehler und manuelle Aufwände minimiert werden. Cloudbasierte Scoring-Modelle tragen so zu einer leichteren Nachvollziehbarkeit und Entscheidungsfindung bei, erkennen potenzielle Risiken frühzeitig und mindern sie, schaffen dank des transparenten Bewertungssystem Vertrauen in den Lieferantenbeziehungen und erleichtern strategische Entscheidungen wie die Auswahl neuer Lieferanten oder die Entwicklung langfristiger Partnerschaften. Dank fortschrittlicher Sicherheitsfunktionen und Compliance-Anforderungen in der Cloud schützen Unternehmen ihre sensiblen Daten und stellen sicher, dass aktuelle gesetzliche Vorgaben eingehalten werden.

Überlegene Leistung der Cloudlogik

Im Vergleich zu traditionellen IT-Infrastrukturen bietet eine Cloudlogik eine überlegene Leistung: Komplexe Logiken, Berechnungen und Regeln lassen sich serverseitig im Sekundenbereich abfragen, ohne interne IT-Ressourcen zu belasten. Ressourcen lassen sich dynamisch anpassen, wodurch auch Spitzenlasten mühelos bewältigt werden können, dafür aber nicht dauerhaft teure Hardware vorgehalten werden muss. Unternehmen zahlen nur für die tatsächlich genutzten Ressourcen und reduzieren so die Gesamtkosten für die IT-Infrastruktur und deren Wartung. Zudem sind cloudbasierte Dienste wie LaaS – eine Internetverbindung vorausgesetzt – von überall zugänglich, wodurch der Zugriff auf wichtige Daten ortsunabhängig gewährleistet und die Zusammenarbeit erleichtert wird. 

Bei der Auswahl der Cloudlogik ist aber darauf zu achten, dass Unternehmen nicht in ein langfristiges Abhängigkeitsverhältnis geraten, sondern Logiken auch selbst anpassen können. Neue Funktionen und Dienste sollten sich, wie beim Beispiel LaaS, mühelos anpassen und integrieren lassen, um schnell auf Geschäftsanforderungen reagieren zu können.

Die Verbindung mit internetfähigen Systemen wie LaaS erfolgt vorzugsweise via standardisierter JSON/Web-Token-Integration. Dabei erhalten Benutzer bei jeder Anmeldung ein JSON/Web-Token (JWT), das alle notwendigen Informationen zur Identität und Berechtigung enthält. Nach erfolgreicher Authentifizierung generiert der Server ein JWT, das signiert und so vor Manipulation geschützt wird. Sobald die Authentifizierung abgeschlossen ist, können Daten zwischen dem Client und dem Server in einem standardisierten JSON-Format übertragen werden; die Kommunikation mit dem Server erfolgt über APIs, die eine standardisierte und effiziente Datenübertragung ermöglichen. Die Integration der Cloudlogik erfolgt somit einfach und sicher.

Über die Autoren:
Torsten Heiob ist CEO/CTO und Geschäftsführender Gesellschafter ACBIS GmbH,
Mark Ariu ist COO und Head of Project Management Office ACBIS GmbH.