Startseite » Einkauf »

Intelligence zur Steuerung der externen Wertschöpfungsnetzwerke

Smart Data
Intelligence zur Steuerung der externen Wertschöpfungsnetzwerke

Intelligence zur Steuerung der externen Wertschöpfungsnetzwerke
(Bild: selman amer/123rf)
Big Data zählt zu den Megatrends der global vernetzten Welt. Quantitativ nimmt die Datenmenge stets zu, jedoch ist letztlich nicht die Menge, sondern die Qualität der zur Verfügung stehenden Daten entscheidend. Neue Formen der Datenerhebung und -verarbeitung bieten vielfältige Ansätze, um die externe Wertschöpfung abzusichern und zu steuern.

Big Data stellt derzeit einen großen Hype um die immensen Datenmengen dar, die in Folge der Digitalisierung in vielen Geschäftsbereichen gewonnen werden können. Auch im Supply Chain Management werden durch eine hohe Anzahl von Kennzahlen Daten gesammelt. So werden Informationen über die Leistungserbringung der externen Wertschöpfungspartner gewonnen. Doch da sich die Menge der Daten alle zwei Jahre verdoppelt, besteht die Gefahr eines Data Overload. Dieser wirkt sich zunehmend nachteilig aus. Fehlende Transparenz bei der Datengewinnung und wachsende Überforderung bei der Auswertung der vielen heterogenen Daten wirken demotivierend auf Mitarbeiter. Es ist zwingend notwendig, die Daten mit innovativen Methoden anwendungsgerecht zu analysieren und zu bewerten. Was benötigt wird, sind keine großen, wahllos zusammengetragenen Daten, sondern eine bewusst vernetzte und belastbare Datengrundlage, die in Echtzeit zur Verfügung steht – Smart Data. Erst so entsteht eine verlässliche Entscheidungsgrundlage.

Diese Smart Data schaffen Transparenz und belastbares Wissen, das aus allen relevanten Daten generiert wird. Wer seine Lieferanten präventiv steuern möchte, wird zukünftig auf das durch Smart Data generierte Wissen zurückgreifen. Die Studien „Total Supplier Management“ und „Big Data in deutschen Unternehmen“ zeigen jedoch, dass in den meisten Unternehmen bisher keine Digitalisierungsstrategie und somit auch keine Strategie zur Generierung von Wissen vorhanden ist. Somit fehlt zur heutigen Steuerung der externen Wertschöpfungsnetzwerke immer noch die Grundlage für Prävention und Transparenz.
In sieben Schritten zum Ziel
Der Smart Data Advanced Analytic Process führt durch eine Erhöhung der Datenqualität zu mehr Transparenz und bietet dadurch eine Entscheidungsgrundlage im Umgang mit Lieferanten und Partnern. Innerhalb von sieben Schritten erhalten Manager und Entscheidungsgremien eine Informationsgrundlage für die Initiierung geeigneter Maßnahmen.
1.  Strategie und Aufgabendefinition
Der Prozess beginnt mit einer Strategie zur Steuerung der Supply Chain. Die Prozessaufgabe besteht aus der Analyse, welcher Lieferant als kritisch eingestuft wird. Ein kritischer Lieferant ist dadurch gekennzeichnet, dass er die Anforderungen, die der Abnehmer an ihn stellt, nicht erfüllt. Diese Leistungsdefizite können beispielsweise bei der nicht Einhaltung bestimmter Qualitäts- oder Logistikanforderungen auftreten.
2.  Daten- und Relevanzanalyse
Im zweiten Schritt wird die Datengrundlage ausgewählt. Dazu werden alle aussagefähigen Kennzahlen in Echtzeit zur Verfügung gestellt. Bei der Datenauswahl sollte auf die Datensätze zurückgegriffen werden, die in den Systemen der Unternehmen bereits vorhanden sind. Meist sind dies leistungsbeschreibende Daten, wie Qualitäts- und Logistikkennzahlen. Aber auch allgemeine Informationen, wie der Produktionsstandort des Lieferanten, werden benötigt. Diese Daten werden in einen lieferantenspezifischen Eigenschaftsvektor übertragen und auf Relevanz für die weiterführenden Analysen geprüft.
3.  Data Checker interner und externer Daten
Die heute in den Unternehmen vorliegende Datenqualität ist für die Abbildung der Realität oftmals unzureichend. Die Ursachen der schlechten Datenqualität sind in diesem Zusammenhang vielfältig. Manuelle Eingabefehler sind oft auf die Unachtsamkeit des Anwenders zurückzuführen.
Durch einen systematischen Data Checker kann die Robustheit der Daten verbessert werden. Der Data Checker umfasst die Überprüfung der Datenplausibilität, Datenvalidität und Datenverfügbarkeit. Hierfür werden die vorhandenen Leistungsdaten der Lieferanten in ein Analysemodell importiert und durchlaufen standardisierte Auswertungsmethoden. Die Aussagekraft der Informationen wird bereits bei der Konzeptionierung des Datensatzes analysiert. Dies wird einmalig innerhalb der strategischen Vorgehensweise, beispielsweise zur Erstellung einer Kennzahl, genutzt. Eine Plausibilisierung von Grunddaten prüft die logische Verknüpfung von Daten. Datensätze aus unterschiedlichen Systemen müssen dabei konsistent sein. Ist eine Widerspruchsfreiheit der Daten aus unterschiedlichen Anwendungen gewährleistet, liegt eine gute Datenqualität vor. Ist ein Datensatz statistisch, z. B. aufgrund von Werten aus der Vergangenheit, nicht zu erklären, kann dieser ebenfalls als auffällig gekennzeichnet werden. Eine formale Kontrolle erlaubt die Bereinigung von Inhalten, die nicht dem geforderten Datenformat entsprechen.
4.  Data Mining
Die eigentliche Wissensgenerierung findet beim Data Mining (Datenmustererkennung) statt. Dabei werden aus allen relevanten lieferantenspezifischen Daten mithilfe von mathematischen Algorithmen Muster in der Datenbasis gesucht. Ist ein Muster auffällig, können frühzeitig Rückschlüsse auf mögliche Risiken innerhalb des Wertschöpfungsnetzwerkes, beispielsweise bei anderen Lieferanten mit einem gleichen oder ähnlichen Musteranteil, gezogen werden. Dies ist möglich, noch bevor diese Lieferanten negativ in Erscheinung treten. Bei der automatisierten bzw. rechnergestützten Anwendung von Datenanalysen werden die Datenbestände eigenständig und datengetrieben untersucht. So werden bisher unbekannte Muster ohne vorherige Hypothesen oder Annahmen entdeckt. Ein Unternehmen kann sich durch diese Analysen Wettbewerbsvorteile innerhalb des Lieferantenmanagements schaffen. Durch den frühzeitigen Informationsvorsprung ist ein präventives Handeln möglich.
5.  Visualisierung der Ergebnisse
Die ermittelten Ergebnisse aus dem generierten Wissen werden nun übersichtlich aufbereitet, sodass sie für eine Vielzahl von Mitarbeitern aus unterschiedlichen Fachbereichen des Unternehmens nachvollziehbar sind. Diese Ergebnisdarstellung dient dann als Grundlage für den nächsten Schritt: die Ergebnisinterpretation.
6.  Ergebnisinterpretation
Im bereichsübergreifend zusammengesetzten Lieferantenlenkungskreis werden die Ergebnisse aus den Analysen des Smart Data Advanced Analytic Process präsentiert und bewertet. Dabei tauschen sich die verschiedenen Fachbereiche, z. B. Einkauf, Logistik, Entwicklung und Qualität, regelmäßig über die Risiken innerhalb der Supply Chain aus.
7. Entscheidungen
Auf Grundlage der aufbereiteten Informationen über die Supply Chain kann der Lieferantenlenkungskreis über präventive Maßnahmen zur Risikobeherrschung entscheiden. Notwendige Maßnahmen werden beschlossen und von den verantwortlichen Fachbereichen umgesetzt. Somit kann die Lieferantenperformance präventiv gesichert beziehungsweise nachhaltig wieder hergestellt werden.
Zur Absicherung des Unternehmenserfolgs
Mit Smart Data können aufgrund des ganzheitlichen Wissensmanagements viele unternehmensinterne Prozesse unterstützt werden. So lässt sich auch für die Steuerung der externen Wertschöpfungsnetzwerke hohes Potential aus den bewusst generierten Datenmengen ableiten. Die erfolgreiche Umsetzung des Smart Data Advanced Analytic Process bietet dabei eine transparente Informationsgrundlage, die zur frühzeitigen Identifikation kritischer Lieferanten dient. Wenn geeignete mathematische Analysetools verwendet werden, ist eine automatisierte Informationsgewinnung aus den Datenmengen möglich. Dies führt zu erheblichen Zeiteinsparungen sowie Fehlerreduktion im Entscheidungsfindungsprozess. Smart Data unterstützt somit die Absicherung neuer Technologien und Innovationen im externen Wertschöpfungsnetzwerk durch eine in Echtzeit zur Verfügung stehende und auf Plausibilität, Validität und Verfügbarkeit geprüfte Datenmenge. Die Auswertung der Daten und die daraus gewonnenen Informationen haben somit einen direkten Einfluss auf den Unternehmenserfolg. Wer es versteht, Smart Data präventiv einzusetzen, wird stets schneller agieren können, als es die Konkurrenz zu reagieren vermag .

Prof. Dr.-Ing. Robert Dust, TU Berlin
Dipl.-Ing. Anja Wilde, wissenschaftliche Mitarbeiterin am Fachgebiet Qualitätsstrategie und Qualitätskompetenz der TU Berlin, anja.wilde@tu-berlin.de
Anna Nowak, B.Sc., studentische Mitarbeiterin, TU Berlin
Unsere Webinar-Empfehlung
Aktuelles Heft
Titelbild Beschaffung aktuell 4
Ausgabe
4.2024
PRINT
ABO

Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de