Das Wissensportal für CRM-Profis

Autor: Dr. Marcus Dill
Letzte Aktualisierung: 16.02.2016

Neue Möglichkeiten für eine bessere Planung: Reporting is coming home

Seit den 90er-Jahren gingen operative Prozesse und das zugehörige Reporting getrennte Wege. Die Ursachen waren primär technologischer Art. Das Berichtswesen war schlicht zur Last für die produktiven ERP-Systeme geworden und musste auf separate Systeme ausgelagert werden. Dort entwickelten sich über Reporting hinaus auch komplexere Formen der Datenanalyse, die heutzutage viele intelligente Auswertungen möglich machen.

Innovationen der jüngeren Zeit schaffen nun Möglichkeiten, Reporting und Analytics wieder ganz nah an operative Anwendungen in ERP-Systemen heranzuführen. Dies bietet Unternehmen viele neue Potenziale, fordert aber auch Konsequenzen für IT-Architekturen und die Organisation in Unternehmen.

Die Gründe für die Trennung von transaktionaler und Berichtswelt sind vielfältig. Business Intelligence (BI) ist rechenintensiv und komplex. Es konsumiert erhebliche Systemressourcen. Auswertungen erfordern akzeptable Antwortzeiten. Erst diese erlauben verschiedene Blickwinkel auf die Daten und damit einen wirklich guten Einblick in den Stand des Geschäfts. Auf herkömmlichen IT-Architekturen können kurze Antwortzeiten nur mithilfe optimierter Datenmodelle erzielt werden. Diese dimensionalen Datenmodelle eignen sich aber wiederum nicht für transaktionale Verarbeitung und unterscheiden sich deutlich von den Datenmodellen der operativen Systeme. Der Aufbau dieser optimierten Datenmodelle und Analysesysteme erfordert viel Spezial-Know-how, das in vielen Organisationen über die Jahre in separaten Einheiten zusammengefasst wurde.

Spezielles Know-how ist gefordert
Die lange Zeit technisch unvermeidliche Trennung von operativen und Analysesystemen bringt massive Nachteile mit sich. Für das Management am augenfälligsten sind die Unsummen, die der Aufbau von Data Warehouses verschlingt. Datenanalysten und fachliche Anwender beklagen dagegen vor allem die Trägheit dieser BI-Systeme, die auf neue Anforderungen oft nur nach Monaten reagieren können. Für Unzufriedenheit sorgen darüber hinaus Fehler, die sich bei der Übertragung und komplexen Aufbereitung der Daten einschleichen und in nicht wenigen Fällen die Daten und Berichte unbenutzbar machen. Auch dass Ereignisse von heute sich erst morgen oder sogar erst im Folgemonat in Berichten widerspiegeln, schränkt den Nutzen von isolierter BI ein.

Längst hat sich auf den Managementebenen und in den IT-Abteilungen dieser Welt herumgesprochen, dass die Notwendigkeit der Trennung von transaktionaler und Berichtswelt nicht in allen Fällen mehr gegeben ist. In vielen Unternehmen hält In-Memory-Technologie mit bisher nicht gekannten Verarbeitungsgeschwindigkeiten Einzug. Diese Performance macht eine auf die Analyse hin optimierte Datenmodellierung überflüssig. Sie erlaubt es, Reporting wieder näher an die transaktionalen Systeme heranzuführen, es zumindest in Teilen wieder in die ERP-Prozesse zu integrieren und zusätzlich weitere intelligente Verfahren zum Einsatz zu bringen.

Der Nutzen dieser neuen Architekturoptionen ist evident: Aufwände für die Replikation und Aufbereitung von Daten entfallen ebenso wie das lange Warten auf die Bereitstellung von Berichten bzw. die Umsetzung neuer Anforderungen. Auch das Risiko von Fehlern in den Verarbeitungsprozessen nimmt grundsätzlich ab. Dass nach wie vor Fehlerquellen bleiben, liegt daran, dass die allermeisten Berichte und Analysen ein Mindestmaß an fachlicher Verarbeitung und Berechnung erfordern. Diese wird natürlich auch auf In-Memory-Architekturen weiter benötigt. Sie wird jedoch virtualisiert, d.h., die Ergebnisse dieser Verarbeitung müssen nicht wie bisher aus Performancegründen vorberechnet und abgespeichert werden. Stattdessen erfolgt die fachlich notwendige Aufbereitung von Daten zum Zeitpunkt des Berichtsaufrufs bzw. in dem Moment, in dem sie von Analysten benötigt werden.

Vor allem drei Anwendungsgebiete werden in den nächsten Jahren das Zusammenwachsen von BI und Prozesswelt vorantreiben (Abbildung 1): Operatives Reporting, Planungsapplikationen und integrierte Echtzeit-Analysen. Operatives Reporting, d.h. einfache, historisch oft listenartige, zunehmend aber auch grafische Übersichten über einzelne Prozesse und Entitäten, gehört dabei zu den „Quick Wins“. Zukünftige IT-Architekturen erlauben grundsätzlich den kostengünstigen Bau von auch optisch ansprechenden Reporten und Dashboards, die beim Ausführen den aktuellen Datenstand des ERP bis hin zur Transaktion der letzten Sekunde beinhalten.


Abbildung 1: Potenziale der Integration von ERP und BI

Die grundlegenden Konzepte und Bausteine für solche Architekturen sowie die Prinzipien für die Entwicklung operativer Berichtsanwendungen sind zwar grundsätzlich im Markt schon recht weit entwickelt. Nicht alle Unternehmen bedienen sich aber dieser Konzepte. Sie setzen stattdessen die falschen Werkzeuge ein und arbeiten mit Methoden, die sich im Prozessumfeld bewährt haben mögen, im Analysekontext aber Fehler, unnötige Aufwände und Unzufriedenheit erzeugen. Eine simple Ursache für solche Fehlstarts ist, dass über die letzten Jahrzehnte in vielen Organisationen die Verantwortlichkeiten (und damit auch das Know-how) für BI von denen für die operativen Systeme getrennt wurden.

Wenn nun auf operativen Systemen analytische Anwendungen entwickelt werden, greifen viele Unternehmen nicht auf die vorhandenen Konzepte und Erfahrungen in den BI-Abteilungen zurück. Strategisch denkende CIOs tun daher gut daran, ihre gegebenenfalls überkommenen Organisationsstrukturen im Kontext von Analysen zu überdenken und das im Haus vorhandene BI-Know-how ebenfalls wieder näher an die ERP-Systeme heranzuführen.

Planungsanwendungen sind unverzichtbar
Planungsanwendungen, zweiter wichtiger Treiber der Verschmelzung von analytischer und transaktionaler Welt, sind traditionell eng verbunden mit Reporting. Beide haben viele ähnliche Anforderungen. Planungs- und Reportingtools setzen daher auf gemeinsame Komponenten und Konzepte. Planung erfolgt in der Regel immer mit einem Blick auf historische Ist-Daten. Plandaten müssen im Normalfall auch wieder ins Reporting laufen, um dort Plan-Ist-Vergleiche zu ermöglichen.

Andererseits gibt es im Planungskontext aber auch viele Szenarien, die eng mit den operativen Prozessen liiert oder für deren Funktionieren sogar unverzichtbar sind. Beispielsweise erfordern Produktion und Logistik eine detaillierte und integrierte Planung von Lagerbeständen und Kapazitätsbedarfen. Produktions-, Einkaufs- und Lieferprozesse werden mithilfe solcher operativen Planungsapplikationen gesteuert. Natürlich sind solche Planzahlen auch essenziell für ein effektives Management der Liquidität eines Unternehmens.

Viele Planungsanwendungen sind so eng mit ERP-Prozessen und der darin verbauten Logik verknüpft, dass sie nie aus deren Kontext isoliert werden konnten. Effiziente Funktionalität moderner Planungswerkzeuge kommt daher hier nur wenig zum Einsatz. Stattdessen dominiert Spezialprogrammierung. Auch dies wird sich in den nächsten Jahren jedoch ändern: Mit dem Einzug von In-Memory- und BI-Technologie bieten sich vielen operativen Planungsanwendungen neue Möglichkeiten der Beschleunigung. Planungsprozesse, die heute noch Stunden oder gar Tage laufen, werden dann in Minuten oder gar Sekunden beendet sein. In vielen Fällen bietet sich hierdurch das Potenzial, Prozesse ganz neu zu konzipieren und dadurch die Basis für neue Geschäftsmodelle zu schaffen.

Erst langsam entwickelt sich der dritte Treiber für das „Coming home“ von Analysen in das ERP. In den letzten Jahrzehnten wurden zahlreiche Softwaretools entwickelt, die über die Betrachtung von Berichten hinaus auch das Erkennen komplexer Zusammenhänge und die Prognose von Ereignissen auf der Basis von Wahrscheinlichkeiten ermöglichen (Predictive Analytics). Diese Werkzeuge werden in der überwiegenden Mehrzahl der Fälle noch „offline“ eingesetzt, d.h. außerhalb des unmittelbaren Prozesskontexts auf einem Data Warehouse oder einem anderen redundanten Datenbestand. Die Zahl der Ideen wächst jedoch, wie intelligente Verfahren die Prozesse unmittelbar steuern und optimieren können.

Bis operative und analytische Welt wieder vollständig zusammengewachsen sind, müssen die Vordenker dieser Entwicklung jedoch noch viele Probleme lösen und neue Konzepte entwerfen. In der Praxis kaum ersetzlich sind Data Warehouses bisher beispielsweise, wenn es um die Integration von Daten aus verschiedenen Systemen geht. Schon heute ist aber die Richtung klar, in der sich Technologie und Anwendungen entwickeln werden: sogenannte ETL-Prozesse (ETL = Extraction, Transformation, Load) werden virtualisiert und die dafür benötigten Tools ebenfalls operativen Anwendungen zur Verfügung gestellt.

Jüngste Neuerungen beispielsweise im Portfolio der SAP machen deutlich, dass diese Entwicklung auch gar nicht lange auf sich warten lassen wird. So enthält SAP HANA seit einigen Monaten auch die Funktionen der SAP Data Services, eines sehr bewährten und umfassenden ETL-Werkzeugs. Hinzu kamen auch Streaming-Tools, die beispielsweise die Integration von Sensordaten aus dem Produktionsumfeld erlauben, und ein sogenannter Smart Data Access. Letzterer erlaubt den Zugriff auf diverse außerhalb der HANA-Datenbank liegende Quellen (Remote-Datenbanken und Systeme, Hadoop etc.). Natürlich hängt in solchen Fällen die Performance der Gesamtlösung wieder stark von den Antwortzeiten der Remote-Quellen ab. Es sind daher übergreifende Konzepte und Investitionen in der gesamten IT-Architektur eines Unternehmens erforderlich.

 
Abbildung 2: Herausforderungen der Integration von ERP und BI

ETL und die zuvor schon erwähnten organisatorischen Anpassungen sind jedoch nicht die einzigen Herausforderungen. Abbildung 2 führt einige der relevanten Themen auf. Darunter auch die Frage, wie mit Daten zu verfahren ist, die zwar akut nicht mehr ständig gebraucht werden, aber trotzdem nicht verworfen werden dürfen, da sie beispielsweise für rückblickende Auswertungen und die Erstellung von Prognosemodellen noch sehr nützlich sein können. Oder auch, wie historische Sichten auf ERP-Systemen erhalten werden können, die ansonsten in den meisten Fällen nur den jeweils aktuellen Stand von Objekten und Transaktionen speichern. Die komplette Änderungshistorie würde auch die besten modernen In-Memory-Datenbanken an technologische oder Kostengrenzen führen. In der Vergangenheit waren Data Warehouses beliebte Archive für Datenhistorien. Insofern können möglicherweise auch in dieser Hinsicht bewährte Konzepte aus der BI- und DWH-Welt übernommen werden. Es werden jedoch mit Sicherheit Anpassungen auf die Besonderheiten des ERP erforderlich sein.

Dr. Marcus Dill

Experte: Herr Dr. Marcus Dill

Dr. Marcus Dill berät internationale Konzerne und mittelständische Unternehmen verschiedener Branchen bei Entwurf und Umsetzung ihrer Strategien für Data Warehousing, Business Intelligence und Customer Relationship Management. In diesem Umfeld blickt er auf zwanzig Jahre Erfahrung als Softwareentwickler, Berater, Architekt und Projektleiter zurück. Als Autor publiziert Dill regelmäßig in angesehenen Journalen zu Themen aus seiner beruflichen Praxis sowie zu aktuellen Technologien und Trends in BI und CRM. Seit 2007 ist Dr. Dill Geschäftsführer beim Berater- und Analystenhaus mayato.

Internet: http://www.mayato.com



Content
Fachbeiträge
Dokument downloaden
     » Beitrag (PDF 474 kB)
Schimmel Media Verlag
»Call-Center-Experts:
Mehr Verkaufseffizienz und Servicequalität am Telefon


»CRM-Expert-Site:
Trends und Expertentipps für bessere Kundenbeziehungen


»Online-Marketing-Experts:
Ihr Richtungsweiser für erfolgreiches Online-Marketing


»Vertriebs-Experts:
Der innovative Coach für Vertrieb und Verkauf


CRM-Expert-Site ist der innovative Fachinformationsdienst von Martina Schimmel und dem CRM-Expertenrat mit Beraterbrief und Wissens- und Downloaddatenbank für CRM und Kundenmanagement.
Hier finden Sie Fachwissen, Know-how, Checklisten, Formulare, Präsentationen und Tipps für CRM.