Datenmanagement

Datenfarmer der Neuzeit.

Erfolgreiche Unternehmen brauchen eine gut organisierte «Information Supply Chain». Eine aktuelle Studie zeigt die Gestaltungsmöglichkeiten auf – und die oft gefährlichen Lücken in vielen Organisationen. 

* Von Christoph Hein und Professor Dr. Wanja Wellbrock

Vor einigen tausend Jahren wurde der Steinzeitmensch vom Jäger und Sammler zum Bauern. Die neolithische Revolution legte den Grundstein für unsere heutige Zivilisation, die moderne Arbeitsteilung und den technologischen Fortschritt der Menschheit. 

Aktuell befinden sich Unternehmen an einem durchaus vergleichbaren Scheideweg: und zwar in Bezug auf ihr Informationsmanagement, einem zentralen Wertschöpfer der heutigen Wirtschaft. Genau wie damals die Menschen in der Steinzeit, müssen sich die heutigen Organisationen grundsätzlich entscheiden, ob sie weiter den ausgetretenen Pfaden folgen oder eine neue Art der Versorgung wagen wollen.

Denn gegenwärtig erfolgen das Datenmanagement und die darauf fußenden Analysen nach dem bereits erwähnten Modell des Jägers und Sammlers: Es wird lediglich geprüft, welche Daten vorhanden sind, um dann die am einfachsten verfügbaren für Analysen zu nutzen. 

Diese allzu simple Vorgehensweise hat einige Nachteile – ähnlich wie die der Jäger und Sammler, die unter einseitiger Ernährung litten, von externen Faktoren wie etwa den Wanderungen des Wilds abhängig waren und in der Nahrungsbeschaffung fortlaufend einen hohen personellen Aufwand betreiben mussten. Die aktuelle Informationsbeschaffung in den Unternehmen hat vor allem drei Nachteile:

  • Erstens sind die zugänglichsten Daten nicht automatisch die besten; 
  • zweitens können sich die Datenquellen hinsichtlich des Inhalts und der Struktur verändern oder versiegen; 
  • drittens bindet ein hoher manueller Aufwand im Datenmanagement wichtige Ressourcen. 

 

Unvoreingenommene Analysen.
Die allgemein als sehr praktisch empfundene Tatsache, dass größere Datenmengen heutzutage immer einfacher verfügbar sind, birgt für Unternehmen die Gefahr, in die sogenannte «Semantische Falle» («Semantic Trap») zu tappen. 

Dieser Begriff aus der Theorie zur «Information Supply Chain» beschreibt das grundsätzliche Problem, dass Daten nur die Informationen liefern können, die sich aus ihnen ableiten lassen. Oder einfach gesagt: Was ich nicht messe, kann ich nicht auswerten. Werden zum Beispiel bei der Kontierung eines Bewirtungsbelegs nur die Summe und das Datum erfasst, sind weitere spätere Analysen des Datensatzes beispielsweise unter den Gesichtspunkten der Uhrzeit, des Orts oder einzelner Positionen technisch nicht mehr möglich. 

Im Prozess der «Information Supply Chain», wie er in der Abbildung unten dargestellt ist, befindet sich die «Semantische Falle» am Übergang vom ersten Schritt der Ermittlung der Rohdaten («raw data») zum zweiten, der dauerhaften und nachhaltigen Speicherung der Daten («storage»). An dieser Stelle werden die Merkmale zur dauerhaften Speicherung aus den Rohdaten ermittelt. Die restlichen Eigenschaften aber werden nicht vorgehalten und stehen für etwaige künftige Analysen nicht mehr zur Verfügung. Damit verbunden besteht das Risiko eines sehr eingeschränkten Erkenntnisgewinns.

Dieses Problem ist an und für sich nicht neu, gewinnt aber mit der zunehmenden Datenmenge an Brisanz. So können beispielsweise die im Millisekundentakt erfassten Sensordaten der Maschinen in den «Smart Factories» nicht dauerhaft in dieser Granularität gespeichert, sondern müssen komprimiert werden. Im Rahmen dieser Verdichtung können – bedingt durch die «Semantic Trap» – wichtige Merkmale für eine zukünftige Analyse verlorengehen.

 

Eine gesunde Mischung.
Das gleiche Grundproblem stellt sich bei der Auswahl der Rohdaten, etwa in der Produktion oder im Vertrieb, die zur Ableitung weiterer Merkmale verwendet werden: Wenn sich ein Unternehmen immer auf die am einfachsten und zugänglichsten Daten konzentriert, entsteht ein eingeschränktes Abbild der Realität, welches später nicht mehr verifiziert oder falsifiziert werden kann. 

Das kann in der Praxis fatale Folgen mit sich bringen. Beispiel: In den meisten Unternehmen werden zwei getrennte Systeme für die Produktion und den Wareneingang verwendet. Aus beiden lässt sich der Materialverbrauch für die Produktion ableiten. Wird für die Auswertung nur eines der beiden Systeme verwendet, kann die gesamte Wertschöpfungskette nur unzureichend analysiert werden. 

Ein Fokus auf das Produktionssystem hat dann zur Folge, dass Verluste im Lager nicht registriert werden. Konzentriert sich das Management hingegen einseitig auf das Wareneingangs- oder auch Lagerungssystem, können übermäßige Verbräuche bei einzelnen Maschinen tendenziell nicht erkannt werden.

Welche Gefahren bestehen, zeigt eine Studie von HENDRICKS, ROST & CIE. und der Hochschule Heilbronn: Die befragten Unternehmen richten den Fokus nach wie vor stärker auf die unternehmensinternen Daten und erhalten so wahrscheinlich nur ein eingeschränktes Bild der Realität. 

Allerdings sind das Topmanagement und leitende Angestellte bereits heute der Meinung, dass das Datenmanagement für die  Erlangung von Wettbewerbsvorteilen eine deutliche strategische Relevanz hat. Für die Zukunft teilen sogar mehr als 80 Prozent der Studienteilnehmer diese Einschätzung (wie in der Abbildung «Wettbewerbsvorteile im Blick» zu sehen ist.

Ganz wie bei unseren Vorfahren kommt es also auf die gesunde Mischung aus verschiedenen Quellen an, um so einer einseitigen Zufuhr – wie heutzutage üblich – vorzubeugen. Auch wenn es aufgrund des Überangebots an Informationen so scheint, als wäre es unerheblich, welche Rohdaten für die Analysen verwendet werden – die Mischung macht den entscheidenden Unterschied aus.

Den ganzen Artikel lesen Sie in der Druckausgabe Nr. 3/2018. Hier bestellen.

 

* Professor Dr. Wanja Wellbrock ist Inhaber einer Professur für Beschaffungswirtschaft an der Hochschule Heilbronn. Seine primären Forschungsgebiete sind Supply Chain Management, strategisches Beschaffungsmanagement und Big Data Anwendungen in unternehmensübergreifenden Wertschöpfungsketten.

* Christoph Hein ist Berater und «Data Nerd» bei dem Düsseldorfer Consultingunternehmen HENDRICKS ROST & CIE. Er beschäftigt sich seit vielen Jahren intensiv mit dem Datenmanagement in Unternehmen – unter anderem mit Themen wie Industrie 4.o oder Big Data, Predictive oder Prescriptive Analytics.

 

 

 

 

Quelle: BUSINESS INTELLIGENCE MAGAZINE, www.bi-magazine.net

© ProfilePublishing Germany GmbH 2018. Alle Rechte vorbehalten. 

Vervielfältigung nur mit Genehmigung der ProfilePublishing Germany GmbH

Business Intelligence Magazine: Springe zum Start der Seite