Anmelden


Erfolgreiche Digitalisierung des Lagers braucht verlässliche Daten

Wenn es um innovative Warenlager und Logistikzentren geht, ist SSI SCHÄFER ein starker Partner, der auf Wunsch auch Lösungen aus einer Hand liefert und realisiert. Die Basis für kundenindividuelle Gesamtlösungen bildet der umfassende wie hochwertige Produkt-Baukasten und innovative Services. Eine Gesamtlösung von SSI SCHÄFER beinhaltet im Allgemeinen auch die Migration einer erheblichen Datenmenge in die mit dem neuen Lager installierten IT-Systeme. SSI SCHÄFER hat das notwendige Know-how, um die Daten gemeinsam mit dem Kunden in ein neues System zu überführen und berät den Lagerbetreiber hinsichtlich der Bedeutsamkeit valider Daten und deren Nutzen für ein nachhaltiges, effizientes Betreiben des Lagers.

Seit Beginn der IT werden Daten in digitaler Form auf numerischer Basis zu Informationen verarbeitet. Die Qualität der Ergebnisse hing schon immer von der Qualität und Zuverlässigkeit der Eingangsdaten ab und das wird auch in Zukunft so sein. Ergänzend ist das dahinterliegende Rechenmodell von entscheidender Bedeutung, denn es verarbeitet die Eingangsdaten zu nutzbringenden und effizienzsichernden Ergebnissen. Um laufend noch mehr Daten für einen noch besseren Lagerbetrieb zu verarbeiten, führt mittlerweile kein Weg mehr an der Digitalisierung vorbei.

Schon allein essenziellste Daten, wie zum Beispiel valide Materialstammdaten, beinhalten enormes Potenzial, um ein Warenlager möglichst effizient und effektiv zu steuern.

Valide Materialstammdaten generieren
Folgende Fragen können dabei helfen, die Qualität und Verbesserungspotenziale der Daten zu eruieren:

  • Sind die im Lager verwendeten Behälter an die Artikelgrößen und die benötigten Mengen optimal an die Lagerbedürfnisse angepasst?
  • Welche Möglichkeit der (wiederkehrenden) Kontrolle des Inhalts/Füllstands auf Basis der bekannten Daten gibt es?
  • Wie hoch ist der Anteil an Fehlmengen (oder Überbeständen), die aus Problemen bei der Mengenerfassung resultieren?
  • Wurden eventuell existierende gesetzliche Vorgaben (zum Beispiel Zusammenlagerungsverbote gewisser Lagerware) durchgehend nachweislich beachtet? 

Eine ordnungsgemäße, sehr präzise Lagerführung führt nicht nur zu einer höchst kostenoptimierten Lagerung, sie bringt auch äußerst verlässliche Materialstammdaten mit sich.

Ineffiziente Lagerhaltung vermeiden
Doch was passiert, wenn auf bestimmte Parameter in der Lagerhaltung nicht ausreichend geachtet wird? Welche Auswirkungen haben ineffiziente Lagerhaltung und damit einhergehende mangelhafte Materialstammdaten?

  • Hohe Aufwendungen aufgrund nicht auf die Nachschubmenge abgestimmter Behältergröße: Es müssen bereits geöffnete, jedoch nicht vollständig entleerte Nachschubgebinde im Großlager wieder zurückgestellt werden. Der Grund dafür liegt darin, dass der fehlerhaft gewählte Aufnahmebehälter für das effizientere Kleinteilelager beim Umpacken die Mengen des angelieferten Gebindes nicht aufnehmen kann.
  • Die Gefahr struktureller Instabilitäten des Regals aufgrund von Überlast: Mangels der korrekten Erfassung von Artikelgewichten und durch das daraus resultierende Fehlen oder Fehler bei aktuellen Lastberechnungen können Bereiche überlastet werden. Das merkt man allerdings erst dann, wenn es im wahrsten Sinne des Wortes zu spät ist.
  • Mehrfache Lagerung des identischen Artikels auf unterschiedlichen Lagerplätzen aufgrund unerkannter Doppel- und Mehrfacherfassungen: Schon allein ein Abgleich auf Basis des mit dem Artikel verbundenen Herstellercodes könnte Platz sparen.
  • Beschädigungen von Artikeln mangels entsprechender Hinweise auf Zerbrechlichkeit oder Ähnliches.
  • Häufige Auswahl von überdimensionierten Versandgebinden und enormer Verbrauch an Füllmaterial bei der Verpackung.
  • Verderben von Ware durch Überschreiten von MHD-Daten oder anderen maximalen Zeitintervallen für die Lagerung.
  • Zerstörung von Ware aufgrund fehlender Daten zu speziellen Lagerungsanforderungen (Umweltbedingungen, elektrostatisch geschützt etc.).
     

Beobachtungen zeigen, dass aufgrund der angeführten Problematiken oft nicht dokumentierte „Sonderprozesse“ informell durchgeführt werden: zum Beispiel ein zusätzlicher Weg ins Großlager, um fehlende Mengen zu holen. Eine gründliche und sorgfältige Datenpflege kann ineffiziente und kostenverursachende Prozesse eliminieren und die Lagerkennzahlen deutlich verbessern.

Intralogistische Prozesse hinterfragen und Optimierungspotenziale erkennen
In diesem Fall ist es unglaublich wichtig, ein gewisses Bewusstsein für Optimierungspotenziale im Lager zu schaffen. Denn erst das Wissen von dieser Möglichkeit der Effizienzsteigerung regt dazu an, intralogistische Prozesse zu hinterfragen und in weiterer Folge auch zu optimieren.

Lagerbetreiber, die sich über wettbewerbsfähige Logistikkosten freuen, verfügen über dieses wertvolle Know-how. Diese Lager ermöglichen beispielsweise:

  • Höhere Volumenauslastung durch effizientere Gebindenutzung
  • Automatisierte verlässliche Packmuster und Packbildberechnungen, nachdem Dimensionen und Gewicht für die Optimierungsalgorithmen korrekt sind
  • Automatisierte Vorprüfung von kommissionierten Aufträgen anhand des Gesamtgewichts dank verlässlicher Gewichtsangaben bei den Artikeln
  • Effiziente Nachschubabläufe aufgrund aktueller Produktkategorisierungen und damit exakte Mengenbestimmungen für den jeweiligen Nachschubprozess

Verlässliche Daten als Basis für Industrie 4.0
Die Frage „Inwieweit bin ich mit meinem Lager auf Industrie 4.0 vorbereitet?“ impliziert die Frage „Wie gut ist mein Datenfundament für Industrie 4.0 vorbereitet?“. Nur wenn eine entsprechende Datenqualität gegeben ist, kann der Realisierungspartner auch die entsprechenden Rahmenbedingungen für einen zukunftssicheren Lagerbetrieb schaffen.

Aus validen Materialstammdaten Handlungsempfehlungen ableiten
„Daten sind das neue Öl“. Das hört und liest man mittlerweile immer öfter, wobei dieses Zitat von Meglena Kunevas bereits aus dem Jahr 2009 stammt. Schon beim Öl brauchte es entsprechende Entwicklungen, wie etwa Verbrennungsmotoren oder Spezialitätenchemie, um diesen wertvollen Rohstoff vollumfänglich nutzen zu können. Ähnliches gilt im Lager, wo Daten alle laufenden Prozesse antreiben. Doch es braucht mehr als Daten. Erst die Erweiterung des Zitats um „… aber Informationen sind das neue Gold“ schließt erfolgreich den Kreis. Schließlich zielt sie darauf ab, dass aus Daten Handlungen auf Basis von Informationen abgeleitet werden können.

Insbesondere in der Lagerlogistik lässt sich diese virtualisierte Alchemie – das Vergolden von Daten zu Informationen – ausgezeichnet beobachten. Ein Lagerplatzsucher funktioniert zum Beispiel nur dann verlässlich, wenn der Algorithmus über den entsprechenden Lager(zu)stand ausreichend genau und aktuell Bescheid weiß. Informationen wie Füllgrad oder Anzahl der einzulagernden bzw. angeforderten Gebinde aus einer Gasse oder Shuttle-Ebene sind natürlich auch für eine Analyse der Lager-Performance-Werte von großer Bedeutung. Noch viel essenzieller werden diese Informationen be- und genutzt, wenn es darum geht, bei jedem einzelnen Schritt in der Abfolge einer Gebinde-Einlagerung ein Ergebnis für den weiteren Weg zu erzielen – und das in Echtzeit. Dadurch läuft das gesamte Lagersystem im Idealfall stabil weiter, statt in einem bestimmten Bereich eine Überlast zu provozieren.

Es liegt auf der Hand, dass eine Gebindeauswahl für die Erfüllung eines Auftrags in einem automatisierten Lager nur dann funktionieren kann, wenn folgende Informationen konsistent, aktuell und verlässlich vorliegen: momentaner Lagerplatz, Inhalt und Menge sowie eventuelle Restriktionen (Reservierungen oder Blockade durch ein anderes Gebinde). Das ist etwas, das als gegebene Selbstverständlichkeit gesehen und als Grundfunktionalität eines WMS-Systems vorausgesetzt wird, ohne in einem Lieferumfang auch nur erwähnt zu werden.

Präzise Lagerführung führt zu verlässlichen Daten
Ein perfekt abgestimmtes Lagermanagement setzt eine umfassende, vollständige und aktuelle Datenbasis voraus. Valide Prozesse, die präzise Lagerverwaltung durch das Lagerpersonal und das Heranziehen relevanter Daten ermöglichen erst, dass ein WMS-System seine volle Funktionalität entfalten kann.

Performance Einbußen durch nicht analysierte Daten
Fehlende oder nicht analysierte Daten führen unweigerlich zu Performance-Einbußen im Lager. So können zum Beispiel Aufträge aus dem Lager nicht in einer mit dem Mitbewerb vergleichbaren Geschwindigkeit erledigt werden. Zusätzlich sinken Lager-Reichweiten einzelner Produkte auf wenige Stunden, da die inkonsistenten und veralteten parametrierten Werte für das Bestandsmanagement nicht mehr mit den aktuellen Bedarfen übereinstimmen. Und trotzdem ist das Lager bei visueller Inspektion immer voll, weil die falschen Produkte in enormen Mengen (und mit entsprechender Kapitalbindung) auf den Regalflächen sehr viel Platz belegen, der eigentlich dringend benötigt wird.

Bestandsmanagement an Auftragsstrukturen anpassen
Das sind die unerfreulichen Auswirkungen des nicht mit den tatsächlichen Auftragsstrukturen abgestimmten Bestandsmanagements. Sie haben mehrere Ursachen:

  • Für die optimale Bestandsführung wurde das falsche Modell ausgewählt.
  • Das einmal ausgewählte Modell wurde nie erweitert oder angepasst.
  • Die dem Bestandsmanagement zugrundeliegenden Daten wurden nie aktualisiert.

Insbesondere in Zeiten von E-Commerce und Online-Shops sowie der globalen Vernetzung der Kunden über Social-Media-Kanäle besitzen die klassischen, in der Literatur gut dokumentierten Modelle für optimales Bestandsmanagement immer weniger Gültigkeit. Diese klassischen Modelle gehen von zufallsbehafteten Käufen aus. Doch ist es heutzutage noch Zufall, wenn mehrere Kunden gleichzeitig dasselbe Produkt (unerwartet) bestellen? Oder ist es mittlerweile vorhersehbar, wenn die entsprechenden Social-Media-Plattformen inklusive ihrer dort aktiven Influencer als Datenquelle genau mit beobachtet werden?

Datenpflege und Metadatenmanagement – eine Investition in die Zukunft
Um dies herauszufinden, bedarf es einer intensiven Beschäftigung mit den Auftragsdaten. Nur sie können über folgende Entscheidungen Aufschluss geben:

  • Das richtige Logistikkonzept
  • Das passende und korrekte Bestandsmanagement-Modell
  • Die (zum Zeitpunkt der Betrachtung) optimale Parametrierung
  • Die Indikatoren aus dem Markt, die bei Über-/Unterschreiten eine Neubetrachtung des Modells und/oder zumindest der Parameter auslösen sollten

Dazu eine „Was wäre, wenn“-Betrachtung der jüngeren Vergangenheit hinsichtlich folgender Frage: Was wäre, wenn ich schon vor mehreren Monaten mein Modell/meine Parameter nachjustiert oder die empfohlene Änderung bei der Artikelzuordnung vorgenommen hätte? Anhand der betrachteten Auftragsdaten lässt sich ein recht aussagekräftiger Eindruck für das unerschlossene Effizienz- und Performance-Potenzial generieren. Angesichts der zunehmenden Marktdynamik werden die Zeiträume für Neubetrachtungen immer kürzer. Erst bei Erkennen des strukturellen Problems damit zu beginnen, ist im Allgemeinen viel zu spät. Vor allem bei Standort(neu)planungen stehen fehlende Daten im eklatanten Widerspruch zu einem optimalen Planungsergebnis in Hinblick auf das Konzept und die Zukunftsfähigkeit des neuen Lagerstandorts.

Effizienz steigern und Logistikkosten reduzieren
Eine Zukunft ohne weitere Schritte in Richtung Digitalisierung ist kaum mehr vorstellbar. Moderne Algorithmen lassen neben den in früheren Blogbeiträgen schon skizzierten Strategien noch viel komplexere Ansätze zu. Und die in diesen Blogbeiträgen erwähnten Möglichkeiten der Effizienzsteigerung reduzieren den Logistikkosten-Anteil erheblich.

Schon jetzt gibt es viele beispielhafte Firmen, die frühzeitig auf die aktive Nutzung ihrer Daten und das Generieren von Fakten durch datengetriebene, automatisierte Entscheidungsmechanismen gesetzt haben. Und das mit Erfolg. Denn sie können dadurch nicht nur günstiger und rascher auf Veränderungen reagieren. Sondern sie können mittlerweile auch die durch die Daten transparent gewordene Marktdynamik zu ihrem Vorteil nutzen.

Diese Vorgehensweise ist aus Sicht von SSI SCHÄFER auf jeden Fall zu empfehlen, denn mit einer aktiven Nutzung der Kundendaten durch die oben angesprochenen automatisierten Entscheidungsmechanismen kann die Leistung der Kundenlager auf ein völlig neues Level gehoben werden. Bei Interesse steht SSI SCHÄFER jederzeit als Partner zur Verfügung.


Über den Autor:

Markus Klug absolvierte das Studium der Technischen Mathematik an der TU Wien, forschte in Glasgow an Kernel-Methoden zum Zweck des Einsatzes in ereignisdiskreten Simulationsmodellen und leitete nationale und internationale Forschungsprojekte mit Schwerpunkten in den Bereichen Transportlogistik, Standortlogistik und weltweite Supply Chains am Forschungszentrum Seibersdorf. Seit 2013 ist Markus Klug bei SSI SCHÄFER für den Einsatz von Datenanalyse und Simulation zuständig sowie erweitert um die Themen Data Science und Künstliche Intelligenz / Maschinelles Lernen.