Michael Schmahl

Mit Big Data hält ein neues Zeitalter Einzug in die Datenanalyse. Tatsächlich bietet gerade dieses Thema das Potenzial, ganz neue Geschäftsprozesse und Geschäftsmodelle zu erschließen. Allerdings wird die Einführung entsprechender Technologien in Unternehmen viel zu häufig nach dem Henne-Ei-Prinzip diskutiert – oder anders gesagt: Was war zuerst da? Die Technologie oder der Anwendungsfall?

Nun, wie die Praxis zeigt, erschließen sich die meisten der sogenannten Big-Data-Use-Cases durch explorative Analysen aus den Fachbereichen. Folgerichtig gehen immer mehr Unternehmen dazu über, neben der klassischen BI-Umgebung ein Big-Data-Experimentierfeld einzurichten, auf dem sich autorisierte Fachanwender ausprobieren und neue Zusammenhänge aufdecken können. Als besonders geeignet hat sich in diesem Kontext die Hadoop-Technologie erwiesen. Sie ist nicht nur lizenzfrei und daher besonders kostengünstig. Hadoop lässt sich zudem sehr einfach und flexibel in ganz unterschiedliche Praxisszenarien einbinden.

Ein anschauliches Beispiel für diese Vorgehensweisen bietet ein führender Hersteller von Sondermaschinen. Der Projektbericht umfasst zwei Teile: Der folgende Abschnitt beschreibt zunächst die Einführung eines Hadoop-Clusters als „Daten-Spielwiese“ für die Fachbereiche. Ein weiteres Posting wird dann auf die Entwicklung des ersten konkreten Use Cases eingehen.

Performance-Probleme durch „wilde“ Abfragen

Ursprünglich bildete bei besagtem Maschinenbauer ein auf SAP basierendes ERP-System die Grundlage der Datenhaltung. Auf dieses operative System setzte eine gängige BI-Lösung auf. Jedoch griffen viele Fachanwender bei temporären Abfragen direkt auf das ERP zu, da die erforderliche Detail-Daten im rein anforderungsgetriebenen BI-System nicht vorlagen und entsprechende Erweiterungen weder sinnvoll noch praktikabel gewesen wären.

Infolgedessen gestalteten sich die Analysen der Fachbereiche höchst aufwendig und zeitintensiv. Exploratives Arbeiten war im Prinzip nicht möglich. Zugleich wurde das ERP-System durch die „wilden“ Abfragen massiv ausgebremst. Einerseits bestand also ein konkreter Bedarf nach einer komfortablen Analyselösung für die Fachbereiche. Andererseits sollte eine Erweiterung des bestehenden Systems ganz gezielt den Einstieg in die Big-Data-Thematik ermöglichen.

Hadoop ermöglicht schnelle Analysen für Fachanwender

Die Lösung liefert ein Hadoop-Cluster, das direkt an das ERP-System angebunden ist und alle relevanten Daten für die Fachbereiche bereitstellt. Die Fachanwender greifen also nunmehr bei ihrer Analysetätigkeit auf die Hadoop-Plattform zu. Hinzu kommt ein Self-Service-Frontend, mit dem Analysen schnell und einfach vorgenommen und visualisiert werden können. Auf diese Weise werden nicht nur SAP- und BI-System entlastet. Vielmehr können die Mitarbeiter jederzeit Ad-hoc-Analysen mit Hilfe aller relevanten Rohdaten vornehmen.

Das Unternehmen hat auf diese Weise einen ersten, soliden Schritt in das Big-Data-Zeitalter getan. Zwar fließen noch keine unstrukturierten Datenströme von extern in das Modell ein. Derlei Erweiterungen sind aber in Zukunft ohne weiteres möglich. Und schon alleine die Erforschung der vorhandenen, für die Industrie typischen Massendaten eröffnet vollkommen neue Perspektiven, wie ein erster Anwendungsfall in der Fortsetzung dieses Beitrags zeigt.