Präventivmaßnahmen gegen Datenverluste und Schnittstellen für den transparenten Informationsaustausch erläutert Daniel Fathmann, Head of Supply Chain Analytics & Sustainability, msg industry advisors ag.
Laut einer Gartner-Studie sollen bereits Ende dieses Jahres über acht Milliarden IoT-Devices mit installierten Softwaredienstleistungen in Betrieb sein – mit besonders starkem Zuwachs bei industriell genutzten Geräten. Macht das unsere Wertschöpfungsnetzwerke transparenter oder nur komplexer?
Weder noch. Die Herausforderung, mit hohen Datenvolumina aus neuen Informationsquellen effizient umzugehen, stellt sich ja schon seit einigen Jahren. Durch die schnelle Verbreitung des IoT in Branchen wie Handel, Logistik oder Maschinenbau mag die Digitalisierung jetzt zwar ein neues Level erreichen, aber die passenden Technologien zum „Handling“ der Informationen sind längst vorhanden. Wer heute eine „gläserne Supply Chain“ erreichen will, benötigt vor allem Antworten auf zwei Fragen: erstens, wie verdichte ich die Menge der verfügbaren Daten auf die wirklich relevanten Informationen?
Und zweitens, wie schütze ich mich vor Informationsverlusten? Dieses Thema ist in vielen Unternehmen eine große Herausforderung bei der digitalen Transformation. Was sehr erstaunlich ist, denn die simple Regel „Informationsverluste = Gewinnverluste“ hat ja nie an Bedeutung verloren. Und dass Entscheider in dieser Hinsicht durchaus sensibilisiert sind, zeigen immer wieder Untersuchungen wie etwa der „Global Data Protection Index“ von DELL EMC – der bezifferte den Schaden eines Falles von Datenverlust in deutschen Unternehmen auf durchschnittlich 558.000 Euro.
Um welche Informationsverluste geht es und wie können sich Unternehmen konkret davor schützen?
Generell gibt es zwei neuralgische Punkte in jedem Unternehmen, an denen Daten verschwinden. Zum einen der Weg der elektronischen Informationsübertragung – da muss es gar nicht um das klassische Beispiel des Wildwuchses von ERP, SAP, MRP-Systemen in globalen Industrienetzwerken gehen. Das Problem zeigt sich ebenso häufig bei kleineren Logistikdienstleistern, die mit ihren Kunden Informationen noch immer per E-Mail und Fax austauschen. Aber je mehr Systeme involviert sind, desto mehr Medienbrüche gibt es – und genau an diesen Bruchstellen verschwinden Informationen auf Nimmerwiedersehen durch menschliche Fehler oder inkompatible Technologien. Dagegen kann man sich im Falle des Supply Chain Managements vor allem mit EDI-Standards wappnen, also konkreten Verfahren und Vereinbarungen zum Datenaustausch mit Lieferanten und Partnern. Aber auch geschlossene ERP Systeme für Kunden und Supplier reduzieren Fehler in der Kommunikation erheblich.
Das wesentlich größere Problem ist – zum anderen – die Menge der Informationen. Die Daten sind nicht verloren, sondern nicht auffindbar. Hier hilft auch über die Logistik hinaus ein sauberes Plansystem für die Unternehmensdaten, das sich auf die Klärung einfacher Fragen konzentrieren sollte: Welche Informationen sind besonders wichtig in Kontext a, b, c? Wo befinden die konkret? Wie komme ich an sie heran, wie kann ich sei weiterverarbeiten? Welche Systeme sind beteiligt?
Ein gutes Beispiel ist der Planungsprozess für Material-/Lagerbestände. Die für die Logistik relevante Planung beginnt bereits im Vertrieb. Hier werden die Absatzzahlen ermittelt. Dies sollte möglichst granular erfolgen, etwa auf Ebene der regionalen Produktgruppen, Märkte und Vertriebswege. Hier versäumen es aber viele Vertriebsabteilungen, diese wichtige Information genau zu ermitteln, bereit zu stellen und direkt mit der Planungsabteilung abzustimmen. Die fehlende Abstimmung und eine nicht vollständige Planung führen dann in der Folge zu weiteren „Wissenslücken“ im gesamten Planungsprozess. Genau das erschwert dann auch die Beschaffungsplanung und die Logistik, die einen sehr konkreten Personal- und Lagerbedarf auf Basis unvollständiger Information ermitteln müssen. Eine harmonisierte Planung, die auch die Informationsbedarfe nachgelagerter Funktionen berücksichtig, bietet hier große Vorteile und führt zu einem deutlich besseren Unternehmensergebnis.
In einer aktuellen Studie der Allianz ordnen Risk-Experten die Digitalisierung von Geschäftsprozessen inzwischen als Gefahr ein, die Naturkatastrophen und politischen Unruhen ebenbürtig ist. Befürchtet wird vor allem, dass die fehlerhafte Übertragung und Auswertung von Daten zu einem Produktionsausfall führen könnte. Teilen Sie diese Sorge?
Tatsächlich gefährden Datenverluste an nicht koordinierten Schnittstellen die Stabilität der Supply Chain erheblich. Darüber hinaus besteht immer die Gefahr, dass ein wichtiger Netzwerkpartner komplett ausfällt und eine Kettenreaktion auslöst, bei der Prozesse erst einmal auf „Stopp“ stehen und seit Jahren gewachsene IT- und Kommunikationsstrukturen neu aufgebaut werden müssen. In der Logistikbranche war zuletzt sicherlich die Insolvenz der Hanjin Shipping ein solcher „Impact“.
Doch schmerzhaft teure Betriebsunterbrechungen durch fehlerhaftes Datenmanagement sind sehr oft auch „hausgemacht“. Ein Kardinalfehler ist zum Beispiel, sich nur auf Vergangenheitsdaten zu fixieren: was habe ich letztes Jahr erreicht, was sollte ich deswegen nächstes Jahr tun? Das ist eine viel zu beschränkte Perspektive, bei der man viele Informationen ausblendet. Stattdessen sollten Bereiche wie Finance, Risk, Compliance, Vertrieb nicht als „Verwaltungsstelle“ für Daten aus der Logistik bzw. dem Supply Chain Management agieren, sondern gemeinsame Schnittstellen für die Informationsübergabe schaffen.
Im Idealfall gibt der Vertrieb zum Beispiel seine Informationen an den Supply Demand Planer weiter, der daraus Kennzahlen für die Logistik ableitet, die wiederum in Vorgaben für das Marketing und die Personalplanung einfließen. Eine ursprünglich losgelöste Planung wird also synchronisiert. Übertragen auf andere Bereiche, stärkt dieses „Sharing“-Prinzip in Summe die Stabilität der Unternehmensprozesse, da Risiken und Probleme wesentlich schneller transparent und damit lösbar werden. Dazu kommen natürlich Schnittstellen an externe Dienstleister, die Logistik betreiben.
Hier ist es auch wichtig, Daten im technologischen Sinne richtig zu übertragen – und zu überprüfen, ob alle Daten, die ich erwarte, auch richtig übertragen werden. Oftmals kommt es vor, dass gewisse Datenfelder nicht oder unvollständig übertragen werden. Dann fehlen im schlimmsten Fall Daten wie Volumen, Kundennummer oder andere wichtige Informationen. Die Schnittstellen zu anderen Systemen müssen, um solche Fehler auszuschließen, intensiv getestet werden, bevor man sie in einer Live-Umgebung einsetzt.
Wie stellt man sicher, dass Daten so verstanden werden wie beabsichtigt?
Vor allem, indem man für korrekte Stammdaten sorgt – das ist und bleibt übrigens auch im Zeitalter von IoT und Industrie 4.0 die größte Herausforderung bei SCM-Prozessen! In mittelständischen Unternehmen sind durchschnittlich 35 bis 40 Prozent der Stammdaten falsch, was zu teilweise absurden und teuren Hürden und Fehlern in der Logistik führt. Ich erinnere mich zum Beispiel an eine Datenbank mit drei Millionen Lieferscheinfunktionen und somit drei Millionen Zeilen Information; das ist natürlich eine permanent sprudelnde Fehlerquelle.
Ein anderes typisches Problem in Stammdatensystemen ist, dass der Nutzer Abweichungen im Kleinen nicht auf den ersten Blick sieht oder ihn das System nicht automatisch bei Eingabefehlern korrigiert. Tippt man bei der Distribution einer Lastwagenladung Bratpfannen zum Beispiel aus Versehen 2,7 statt 2,1 Kilo je Produkt ein, kann das immense Kosten verursachen, etwa wenn der Spediteur nach Gewicht bezahlt wird.
Hier müssen die Stammdatensysteme die richtige technologische Unterstützung bieten, um Fehler auszumerzen bzw. präventiv zu verhindern. Dazu gehört unter anderem, dass die Software im Hintergrund „intelligent“ permanent überprüft, ob die einmal zu jedem Material eindeutig definierten Bezeichnungen und Angaben korrekt eingegeben werden. Zudem sollte das System auch nach „Prinzip Google“ bei der Eingabe von Begriffen diese gleich den richtigen Materialgruppen zuordnen.
Viele Unternehmen fürchten den Zeit- und Kostenaufwand, der mit einer Lösung dieser Herausforderung einhergeht – zu Recht?
Nein, denn genau diese „Schockstarre“ ist im Endeffekt richtig teuer, da sich der Wettbewerber durch Abwarten sicher nicht abhängen lässt. In großen Unternehmen dauert eine komplette Bereinigung auf Basis der Stammdaten, in der Regel zwei bis vier Monate. Das kommt in Summe deutlich günstiger, als jahrelang mit falschen Daten die immer gleichen – und natürlich neue – Fehler zu produzieren.
Mit der richtigen Technologie alleine ist es aber nicht getan! Genauso wichtig ist es, die Datenqualität zur Managementverantwortung zu machen. In den meisten Unternehmen sind noch immer IT-ler für die Materialstammdaten verantwortlich – die können aber nicht einschätzen, ob Daten plausibel sind. Das kann nur ein Ansprechpartner im Einkauf. Hier sind wir wieder beim Thema der Schnittstellen, die eben auch über Personen geschaffen werden, in diesem Fall einem „Datenbeauftragtem“ für die Stammdatenpflege, der die Sprache von Einkauf, SCM, Vertrieb und IT spricht.
Daniel Fathmann
Daniel Fathmann verantwortet den Bereich Sustainable Supply Chains bei der msg industry advisors ag. Durch seine langjährigen Tätigkeit im operativen Supply Chain Management und seine Expertise im Bereich Nachhaltigkeit kennt er die aktuellen Herausforderungen. Er begleitet Unternehmen bei der nachhaltigen Ausrichtung von Lieferketten.
Sie wollen mehr Erfahren?
Kontaktieren Sie uns über:
+49 172 361 9752
daniel.fathmann@msg-advisors.com