Logistikkette: Informationen intelligent nutzen

Big Data – mehr als nur Daten sammeln

Anzeige
Durch rasante Zuwächse, insbesondere beim Datenverkehr über das Internet, sehen sich Unternehmen mit einer regelrechten Informationsflut konfrontiert. Die hohe Kunst besteht darin, Big Data systematisch zu analysieren. Eine lückenlose Bestandsaufnahme reicht von Beschaffung über Produktion bis zum Vertrieb und Kundenservice. Denn es gilt, die richtigen Schlussfolgerungen für das eigene Kerngeschäft zu ziehen, wie am Beispiel der Logistikbranche deutlich wird.

Mehr als 34 Millionen Fundstellen zeigt der Computer an, nachdem der Nutzer in die Suchmaschine Google den Begriff Big Data eingegeben hat. „Angesichts derartiger Mengen rückt die Datenanalyse in den Vordergrund, denn Informationen sind der Rohstoff für die Zukunft“, betont Prof. Dr.-Ing. Michael Benz, Leiter des Studiengangs Transport und Logistik an der ISM International School of Management in Frankfurt.

Mittlerweile hat das Thema auch die klassische Industrie erreicht. Nach einer Studie des Marktforschungs- und Beratungsinstituts Pierre Audoin Consultants (PAC) sei das rasante Datenwachstum insbesondere in der Produktion zunehmend als drängendes Problem erkannt worden, sagt PAC-Analyst Karsten Leclerque. Vor allem in den Bereichen Lager- und Transportlogistik, fertigungsnahe Prüfdaten und Qualitätskennzahlen, Service und Support sowie in der Personaldisposition fielen große Datenmengen an.
Wie aber können Unternehmen Herr über die Datenflut werden und die richtigen Schlüsse für ihr Kerngeschäft ziehen? Auf dem Deutschen Logistikkongress 2013 setzten sich Experten mit dieser kontrovers diskutierten Frage auseinander. Manche Praktiker sehen Big Data nur als alten Wein in neuen Schläuchen. Schließlich hätten Unternehmen es seit jeher im Data Warehouse mit größeren Datenbeständen zu tun.
Andere Experten wiederum mahnen notwendige Veränderungen an, bedingt etwa durch den rasant wachsenden E-Commerce und den Siegeszug der sozialen Netzwerke und mobilen Endgeräte. Nach Einschätzung von Dr. Till Kreiler, Industry Leader beim Suchmaschinenkonzern Google, sollten Unternehmen zunächst danach trachten, aus den zahlreich vorhandenen unstrukturierten Daten einen profitablen Nutzen zu ziehen. „Denn für jedes Unternehmen bedeutet Big Data etwas anderes“, so Kreiler.
Die traditionell in der Business Intelligence vorgehaltenen Informationsbestände reichten dazu heute nicht mehr aus. Um diese kompatibel zur Big-Data-Strategie zu gestalten, offeriert der IT-Konzern für Unternehmen gezielte Analysedienste von relevanten Suchbegriffen, beispielsweise um mehr darüber zu erfahren, wonach die Kunden im Netz gerade Ausschau halten.
Das Ziel: Mit den vorhandenen Informationen eine höhere Wertschöpfung erzielen. Angesichts des unternehmensweit rasant zunehmenden Datenmaterials liegt die Herausforderung darin, die Information gezielt so aufzubereiten, dass diese ein möglichst komplettes Bild aller Teileinheiten und Prozesse bilden, und zwar „in Echtzeit“, sprich jederzeit und unabhängig vom Ort abrufbar, im Idealfall sogar über jedes beliebige Endgerät.
Die Potenziale von Big Data in der Logistikbranche skizziert Dr. Beate Eilermann, bei der Volkswagen AG in Wolfsburg zuständig für Managementsysteme und die betriebliche Ressourcenplanung (ERP): „Für uns bedeutet eine moderne Informationsarchitektur im globalen Produktionsnetzwerk deutlich mehr als nur eine Datensammlung“, lautet ihr Credo. Big Data sei allerdings nicht nur eine vorrangig technische Frage, so die Expertin weiter, sondern betreffe die Menschen im gesamten Unternehmen. Der Volkswagen-Konzern legt deshalb ein Augenmerk darauf, die Kollegen mitzunehmen und die Motivation der Mitarbeiter bis in die untere Fertigungsebene hinein zu wecken und zu stärken.
Der stetig wachsenden Datenflut mit einem strukturierten Ansatz entgegenzuwirken, illustriert die Expertin am Beispiel des Kundenauftragsprozesses. Die große Herausforderung bestehe darin, die meist verstreut liegenden Datenbestände – etwa in Excel-Listen und anderen Datenbanken – intelligent miteinander zu verknüpfen. Hier könne nichts die menschliche Arbeitskraft ersetzen, um die wichtigen Informationen zu interpretieren und zu steuern, beispielsweise über Reports, Statistiken, Textmining sowie eine vorausschauende Analyse.
Im Übrigen sollten sich Unternehmen bei Big Data unabhängig von ihrer Größenordnung nicht allein auf externe Dienstleister verlassen, bilanziert die Expertin von Volkswagen. Denn Eilermann sieht das Data Warehouse als Kernkompetenz eines jeden Unternehmens an, für das gezielt Fachkompetenz intern aufgebaut und stetig vorgehalten werden müsse, und zwar sowohl technisch als auch organisatorisch.
Keine Lösung von der Stange. Auch die Anbieter von Lösungen rund um Business Analytics haben die Herausforderung erkannt. Jedoch gibt es gerade mit Blick auf verteilte und teils unstrukturierte Datenbestände keine Lösung von der Stange. Laut Matthias Kiess, Mitglied der Geschäftsleitung beim Logistik- und IT-Spezialisten AEB, sollten Unternehmen deshalb gemeinsam mit externen Dienstleistern die existenten Informationslücken entlang der gesamten Wertschöpfungskette schließen.
Deutlich wird der dadurch notwendige Restrukturierungsprozess am Beispiel von zahlreichen Paket- und Sendungsnummern, die sich etwa durch mehrere Logistikdienstleister nahezu zwangsläufig ergeben: „Big Data kann nur in einem kollaborativen Ansatz gelingen, gerade mit Blick auf den Frachteinkauf oder der Simulation der Transportkette“, rät deshalb Kiess. Mehr Eigeninitiative sei gefragt, etwa um mithilfe einer stärker in Eigenregie organisierten Frachtkette die Kosten zu senken und Synergien auszuschöpfen.
Die Notwendigkeit eines unternehmerisch ausgereiften Planungsansatzes bestätigt auch Prof. Dr. Dirk Olufs, Chief Information Officer (CIO) bei DHL Express. Der Logistikdienstleister sieht die Zielmarke im Umgang mit großen Datenmengen darin, die operative Performance zu steigern: „Wir sehen das Sendungstracking wie eine Art von Facebook-Timeline, um jederzeit über den Sendungsstatus informiert zu sein.“
Mehr Transparenz über alle zentralen Informationsstränge ist letztlich das Ziel. In drei eigens eingerichteten Qualitätszentren in Bonn, Leipzig und Singapur prüft Logistikdienstleister DHL für ausgewählte Geschäftskunden rund um die Uhr die aktuelle Datenlage anhand von individuellen Kriterien. „Mit den Quality Control Centern schlagen wir eine Brücke zwischen der Information in Echtzeit und den ebenso raschen Antwortzeiten“, sagt Olufs.
Eine leistungsfähige Datenanalyse ist für den DHL-Manager auch deshalb vordringlich, wenn sich etwa ein Flugzeug verspätet, ein Stau auftritt oder sich direkt beim Kunden eine zeitliche Verzögerung ergibt. Gerade in solchen Fällen greife bei Big Data ein ausgefeiltes Management-System, um täglich mehrere Millionen Daten beim ganzheitlich organisierten Bestell- und Lieferprozess gezielt zu erfassen. Etwaige Problemzonen in der Lieferkette ließen sich in einem umfassenden Gestaltungsansatz jedenfalls deutlich rascher als mithilfe einer konventionellen Datenanalyse erkennen, bilanziert Dirk Olufs.
Lesetipp: Der BITKOM – Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V. hat zwei Leitfäden zum Thema Big Data herausgegeben: – Management von Big-Data-Projekten, Leitfaden; bitkom.org: – Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte; bitkom.org

Worum geht es bei Big Data in der Logistik?

Definition

Der Begriff Big Data ist gekennzeichnet durch den schnellen Zuwachs digitaler Datenmengen aus unterschiedlichen Quellen und Datenstrukturen. Mit Blick auf die Logistik ist die Entwicklung von einer stetig steigenden Zahl an Nutzern, Sensoren, Prozessen und weiteren Quellen gekennzeichnet, die neue Methoden und Vorgehensweisen in der Analyse erfordern. Verwandte Fachbegriffe sind Data Warehouse, Business Intelligence und Data Analytics. Welche positiven betriebswirtschaftlichen Effekte ergeben sich?
  • Schnellere und bessere Entscheidungen treffen zu können (zu jeder Zeit an fast jedem Ort)
  • Notwendiges rasches Eingreifen in Unternehmensprozesse (Reaktion nahezu in Echtzeit)
  • Verkürzung von Entscheidungsprozessen durch direkte Reaktion von Entscheidungsträgern (on time)
(Quelle: Fraunhofer IML/Lothar Lochmaier)

Mehr zum Thema Big Data
Anzeige

Aktuelles Heft

Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Anzeige
Anzeige

Industrie.de Infoservice

Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de