Medienpartner von

Valide Materialstammdaten als Basis effizienter Materialflussprozesse

IT-Blog | Erfolgreiche Digitalisierung des Lagers braucht verlässliche Daten | Teil 1/2

SSi Schäfer

Autor: Markus Klug

Wenn es um innovative Warenlager und Logistikzentren geht, ist SSI Schäfer ein starker Partner, der auf Wunsch auch Lösungen aus einer Hand liefert und realisiert. Die Basis für kundenindividuelle Gesamtlösungen bildet der umfassende wie hochwertige Produkt-Baukasten und innovative Services. Eine Gesamtlösung von SSI Schäfer beinhaltet im Allgemeinen auch die Migration einer erheblichen Datenmenge in die mit dem neuen Lager installierten IT-Systeme. SSI Schäfer hat das notwendige Know-how, um die Daten gemeinsam mit dem Kunden in ein neues System zu überführen und berät den Lagerbetreiber hinsichtlich der Bedeutsamkeit valider Daten und deren Nutzen für ein nachhaltiges, effizientes Betreiben des Lagers.

„In God we trust, all others must bring data“[1]

Seit Beginn der IT werden Daten in digitaler Form auf numerischer Basis zu Informationen verarbeitet. Die Qualität der Ergebnisse hing schon immer von der Qualität und Zuverlässigkeit der Eingangsdaten ab und das wird auch in Zukunft so sein. Ergänzend ist das dahinterliegende Rechenmodell von entscheidender Bedeutung, denn es verarbeitet die Eingangsdaten zu nutzbringenden und effizienzsichernden Ergebnissen. Um laufend noch mehr Daten für einen noch besseren Lagerbetrieb zu verarbeiten, führt mittlerweile kein Weg mehr an der Digitalisierung vorbei.

Schon allein essenziellste Daten, wie zum Beispiel valide Materialstammdaten, beinhalten enormes Potenzial, um ein Warenlager möglichst effizient und effektiv zu steuern.

Valide Materialstammdaten generieren

Folgende Fragen können dabei helfen, die Qualität und Verbesserungspotenziale der Daten zu eruieren:

  • Sind die im Lager verwendeten Behälter an die Artikelgrößen und die benötigten Mengen optimal an die Lagerbedürfnisse angepasst?
  • Welche Möglichkeit der (wiederkehrenden) Kontrolle des Inhalts/Füllstands auf Basis der bekannten Daten gibt es?
  • Wie hoch ist der Anteil an Fehlmengen (oder Überbeständen), die aus Problemen bei der Mengenerfassung resultieren?
  • Wurden eventuell existierende gesetzliche Vorgaben (zum Beispiel Zusammenlagerungsverbote gewisser Lagerware) durchgehend nachweislich beachtet?

Eine ordnungsgemäße, sehr präzise Lagerführung führt nicht nur zu einer höchst kostenoptimierten Lagerung, sie bringt auch äußerst verlässliche Materialstammdaten mit sich.

Ineffiziente Lagerhaltung vermeiden

Doch was passiert, wenn auf bestimmte Parameter in der Lagerhaltung nicht ausreichend geachtet wird? Welche Auswirkungen haben ineffiziente Lagerhaltung und damit einhergehende mangelhafte Materialstammdaten?

  • Hohe Aufwendungen aufgrund nicht auf die Nachschubmenge abgestimmter Behältergröße:
    Es müssen bereits geöffnete, jedoch nicht vollständig entleerte Nachschubgebinde im Großlager wieder zurückgestellt werden. Der Grund dafür liegt darin, dass der fehlerhaft gewählte Aufnahmebehälter für das effizientere Kleinteilelager beim Umpacken die Mengen des angelieferten Gebindes nicht aufnehmen kann.
  • Die Gefahr struktureller Instabilitäten des Regals aufgrund von Überlast: Mangels der korrekten Erfassung von Artikelgewichten und durch das daraus resultierende Fehlen oder Fehler bei aktuellen Lastberechnungen können Bereiche überlastet werden. Das merkt man allerdings erst dann, wenn es im wahrsten Sinne des Wortes zu spät ist.
  • Mehrfache Lagerung des identischen Artikels auf unterschiedlichen Lagerplätzen aufgrund unerkannter Doppel- und Mehrfacherfassungen: Schon allein ein Abgleich auf Basis des mit dem Artikel verbundenen Herstellercodes könnte Platz sparen.
  • Beschädigungen von Artikeln mangels entsprechender Hinweise auf Zerbrechlichkeit oder Ähnliches.
  • Häufige Auswahl von überdimensionierten Versandgebinden und enormer Verbrauch an Füllmaterial bei der Verpackung.
  • Verderben von Ware durch Überschreiten von MHD-Daten oder anderen maximalen Zeitintervallen für die Lagerung.
  • Zerstörung von Ware aufgrund fehlender Daten zu speziellen Lagerungsanforderungen (Umweltbedingungen, elektrostatisch geschützt etc.).

Beobachtungen zeigen, dass aufgrund der angeführten Problematiken oft nicht dokumentierte „Sonderprozesse“ informell durchgeführt werden: zum Beispiel ein zusätzlicher Weg ins Großlager, um fehlende Mengen zu holen. Eine gründliche und sorgfältige Datenpflege kann ineffiziente und kostenverursachende Prozesse eliminieren und die Lagerkennzahlen deutlich verbessern.

Intralogistische Prozesse hinterfragen und Optimierungspotenziale erkennen

In diesem Fall ist es unglaublich wichtig, ein gewisses Bewusstsein für Optimierungspotenziale im Lager zu schaffen. Denn erst das Wissen von dieser Möglichkeit der Effizienzsteigerung regt dazu an, intralogistische Prozesse zu hinterfragen und in weiterer Folge auch zu optimieren.

Lagerbetreiber, die sich über wettbewerbsfähige Logistikkosten freuen, verfügen über dieses wertvolle Know-how. Diese Lager ermöglichen beispielsweise:

  • Höhere Volumenauslastung durch effizientere Gebindenutzung
  • Automatisierte verlässliche Packmuster und Packbildberechnungen, nachdem Dimensionen und Gewicht für die Optimierungsalgorithmen korrekt sind
  • Automatisierte Vorprüfung von kommissionierten Aufträgen anhand des Gesamtgewichts dank verlässlicher Gewichtsangaben bei den Artikeln
  • Effiziente Nachschubabläufe aufgrund aktueller Produktkategorisierungen und damit exakte Mengenbestimmungen für den jeweiligen Nachschubprozess

Verlässliche Daten als Basis für Industrie 4.0

Die Frage „Inwieweit bin ich mit meinem Lager auf Industrie 4.0 vorbereitet?“ impliziert die Frage „Wie gut ist mein Datenfundament für Industrie 4.0 vorbereitet?“. Nur wenn eine entsprechende Datenqualität gegeben ist, kann der Realisierungspartner auch die entsprechenden Rahmenbedingungen für einen zukunftssicheren Lagerbetrieb schaffen.


Markus Klug, Data Science & Simulation, SSI Schäfer
© SSI SCHÄFER

Über den Autor Markus Klug:

Markus Klug absolvierte das Studium der Technischen Mathematik an der TU Wien, forschte in Glasgow an Kernel-Methoden zum Zweck des Einsatzes in ereignisdiskreten Simulationsmodellen und leitete nationale und internationale Forschungsprojekte mit Schwerpunkten in den Bereichen Transportlogistik, Standortlogistik und weltweite Supply Chains am Forschungszentrum Seibersdorf.

Seit 2013 ist Markus Klug bei SSI Schäfer für den Einsatz von Datenanalyse und Simulation zuständig sowie erweitert um die Themen Data Science und Künstliche Intelligenz / Maschinelles Lernen.

[1] Anm.: Das Zitat wird W. Edwards Deming zugeordnet, die Urheberschaft ist aber umstritten.

Quelle: www.ssi-schaefer.com

Pressemitteilung veröffentlicht am 24.02.2021 in Lagertechnik, Logistiklösungen, News (In- und Ausland).
Schlagwörter:

Werbung

Werbung

Werbung

Werbung

Werbung

Werbung

Werbung

Werbung

Werbung

Werbung

Werbung

Werbung