Konzept über ein bimodales logisches Hybrid Data Warehouse

Es gibt keinen genormten ISO-Begriff für Business Intelligence bzw. Advanced Analytics, aus Sicht des Autors ist das Hauptziel dieser Disziplinen das Generieren von Wettbewerbsvorteilen durch Informationsvorsprung. Der Begriff tauchte 1958 das erste Mal in einem Beitrag von Hans Peter Luhn auf (Quelle: pmOne) und ist daher keine Neuheit. Die technische Umsetzung erfolgt in einem sogenannten Data Warehouse, worin die relevanten Daten gespeichert und analysiert werden. Auch dieser Begriff stammt aus den 1980ern (Quelle: Michael Konetzny) bzw. gab es darauf zwei grundsätzliche Designansätze von Inmon und Kimball. Inmons Ansatz ist aus dem Jahr 1996 und wenn man zusätzlich das Gartner Analytic Ascendency Model in Verbindung mit einem gewaltigen Anwuchs an Datenvolumen (Quelle: Studie von Seagate aus dem Jahr 2017) betrachtet, so ist es verwunderlich, dass sehr viele Unternehmen in Österreich noch auf klassisches Datawarehousing setzen (Quelle: Kontakte, Fachartikel, Studien und eigene Erfahrungen) und die Nutzenpotenziale von Daten nicht nutzen. Welche Potenziale in der Datennutzung stehen, zeigt der Wahlsieg von Donald Trump in den U.S.A.

Das in diesem Artikel vorgestellte Konzept basiert zum einen auf der Erfahrung und der Ausbildung des Autors bzw. auf der weiterführenden Literatur, welche am Ende des Artikels aufgelistet wird. Da dies kein wissenschaftlicher Artikel ist, wird auf eine exakte Quellangabe verzichtet, die Literaturverweise werden aber ausdrücklich als Quellen hervorgehoben. Dieses Konzept über ein „bimodales logisches Hybrid Data Warehouse“ ist keine Best-Practise, kann jedoch interessierten Fachkräften und EntscheidungsträgerInnen/n neue Impulse zu einer möglichen Umsetzung geben.

Die Kernelemente des Konzepts unterscheidet folgende Aspekte

  • Art der Datenkonsumation und –nutzung (Transaktional, Reporting, Analyse, Data Science)
  • Klassifikation der Daten nach Aktualität bzw. Zugriffshäufigkeit (heiß, kalt)

Folgende Grafik stellt das Grundelemente des Konzepts grafisch dar:

Bild 1: Das Konzept über ein bimodales logisches Hybrid Datawarehouse (Quelle: Eigene Darstellung)

Transaktionales Reporting

Unter transaktionalen Daten werden die Daten innerhalb einer Applikation verstanden. Ein Beispiel hierfür sind Datensätze, welche bei einer Bestellung in einem Online-Shop erstellt werden oder Sensordaten und Statusinformationen von Maschinen. Diese Daten sind hochaktuell und werden direkt aus dem Quellsystem (oftmals ein ERP-System) gewonnen. Um das System nicht zu sehr zu belasten, sind die Daten nur über einen begrenzten historischen Zeitraum verfügbar und werden um keine Daten aus anderen Systemen angereichert. Viele Anbieter bieten bereits Reports und Real-Time-Dashboards an, welche ohne weiteren bzw. nur geringen Anpassungen genutzt werden können. Durch die eingeschränkte Informationstiefe muss für diese Art der Berichte kein Datawarehouse genutzt werden. Im Optimalfall orientieren sich die Berichte bereits an Standards, um nicht zu sehr von anderen Berichten abzuweichen. Eine Möglichkeit hierzu bietet die Ausrichtung am IBCS-Standard.

Ad-Hoc Analysen

Ein großer Vorteil von einer zentralen Datenbank ist die gemeinsame Betrachtung mehrerer Datentöpfe. Zum Beispiel: Könnten Umsätze aus dem Vertriebsprogramm gemeinsam mit den Kosten aus einem Kostenrechnungsprogramm betrachtet werden und zusätzlich Lagerstände und Liefertreue in Kombination interessant sein. Hier werden die „heißen“ Daten logisch miteinander verknüpft, ohne dass diese zusammengeführt werden müssen. Dies spart zum einen Speicherplatz bzw. kann sich der Fachbereich schnell ohne Unterstützung der IT seine Daten holen. Der Fokus liegt auf Agilität und einer kurzen „Time to Market“. Der Erfahrung des Autors nach hat genau diese fehlende Schnelligkeit zur Bildung der berüchtigten „Schatten-IT“ geführt. Die zusätzliche Flexibilität unterstützt die IT und die Fachbereiche auch dabei, wenn im Rahmen eines Prototypings (siehe das Konzept des Autors) eine neue Darstellung der Daten erstellt wird. Ist keine logische Integration der Daten möglich sollten diese auch bei einer „klassischen“ DWH Umsetzung mittels ETL-Prozesses vorzugsweise einer In-Memory-Datenbank gehalten werden, da die Daten noch als „heiß“ eingestuft werden und damit schneller verfügbar sein sollten. Es können auch Daten anderer „klassischer“ Datawarehouses logisch integriert werden bzw. auch der Zugriff auf „kältere“ Daten auf günstigerem Speicher ermöglicht werden. Dies ist vor allem eine gute Möglichkeit, um Daten von anderen Datawarehouses von Tochterunternehmen (Beispiel bei Mergers & Acquisitions) schnell zu integrieren.

Standard-Reporting

Auch in der heutigen schnelllebigen Zeit ist noch Bedarf an Standard-Reporting. Eine Bilanz bzw. Gewinn- und Verlustrechnung ist nach wie vor eine zentrale Kenngröße, um den Unternehmenserfolg zu messen. Besonders wenn es um externes Reporting geht, ist es notwendig, dass die Daten länger (und vor allem unverändert!) vorgehalten werden bzw. kann es für Ursache-Wirkungs-Forschungen im Rahmen einer Data Science auch notwendig sein, Daten länger zu speichern. Hierzu wird der klassische ETL-Prozess genutzt, um die Daten in einer brauchbaren Form abzulegen. Zusätzlich können diese Daten als Datenquelle für das logische Datawarehouse bzw. ein Teil der großen Datentöpfe für Data Science darstellen.

Data Science

Data Science ist eine gute Möglichkeit, um Wissen aus einer großen Datenmenge (Big Data) zu gewinnen. Hierbei werden unterschiedlichste Daten des Unternehmens miteinander kombiniert bzw. können auch externe Daten (Beispiel zugekaufte demographische Daten, Studien zum Wahlverhalten, etc.) genutzt werden, um wertvollere Informationen zu generieren. Data Science ist eine eigene Disziplin und kann nicht in einem „klassischem“ Datawarehouse durchgeführt werden, da die drei V`s von Big Data (Volume, Verocity und Variety) die Architektur sprengen. Um langfristig wettbewerbsfähig zu bleiben, sind derartige Analysen, nach Ansicht des Autors, aber unabdingbar und sollten demnach in einer Analytics Umgebung berücksichtigt werden.

Schlussbetrachtung

Um die Nutenpotenziale der Daten optimal auszuschöpfen, ist Reporting (dient nach Erfahrung des Autors oft fälschlicherweise als Synonym für Business Intelligence im Sprachgebrauch) nicht ausreichend und demnach sollten sich die Unternehmen mit einer wettbewerbsvorteilfördernden Nutzung befassen. Das hier vorgestellte Konzept stellt aus Sicht des Autors eine mögliche Architektur dar, welche in der Praxis selten ohne viel Aufwand umgesetzt werden kann bzw. einiges an Adaptierung bedarf. Zusätzlich wird es wichtig sein nicht den Überblick zu verlieren, wo welche Datennutzung stattfindet, daher sollte auch eine adäquate Dokumentation (siehe das Konzept des Autors) sichergestellt bzw. auch eine Data Governance eingeführt werden. Da das logische Datawarehouse bereits alle benötigten Metadaten enthält, bietet es eine sehr gute Basis für das Metadaten- bzw. Stammdatenmanagement.

Zurück

Übersicht der Artikel

Dieser Artikel beschreibt eine Möglichkeit eine IT-Abteilung mit einem entsprechenden Portfolio zu steuern.

+

Dieser Artikel befasst sich mit der Anwendung von Prinzipien aus dem Lean Management, um den ETL/ELT-Prozess zu optimieren.

+

Dieser Artikel beschreibt eine Möglichkeit einen PoC für ein DWH durchzuführen.

+

Dieser Beitrag stellt die wichtigsten Erkenntnisse des BARC Trend Monitors 2019 vor.

+