Freitag, Juli 19, 2024

Big-Data-Anwenderbeispiele aus der Praxis. Von Stefan Müller, Director Business Intelligence & Big Data bei it-novum.

Davon träumen viele Controller und Marketer: Big Data auf Knopfdruck auswerten zu können. In den meisten Unternehmen ist man davon aber noch weit entfernt. Wie die Kluft zwischen Daten und Fachanwendern geschlossen werden kann, zeigen die folgenden Anwenderbeispiele:

Streamlined Data Refinery
Unter Streamlined Data Refinery versteht man die automatisierte Aufbereitung großer Datenmengen, um sie Fachanwendern für Auswertungen und Berichte zur Verfügung zu stellen. it-novum nutzt dafür Pentaho in Kombination mit Hadoop und setzt das System als Big Data Processing Hub ein, der die Verarbeitung der Datenmengen übernimmt. Hierfür werden Daten aus unterschiedlichen Quellen im Data Hub kombiniert, integriert und veredelt. Fachanwender können dann gezielt die Zeiträume und den Inhalt der Datensets auswählen, die sie auswerten wollen. Die Streamlined Data Refinery modelliert und publiziert diese Daten automatisiert und lädt sie in eine hochperformante Datenbank, wo sie sofort für interaktive Analysen bereitstehen.
 
Prognosen von Aktienverläufen: Big Data im Börsenumfeld
Kann man Aktienverläufe basierend auf Twitteranalysen prognostizieren? Um Zusammenhänge zwischen der Stimmung im Social Web (Twitter) und den Aktienkursen eines Unternehmens aufzudecken, sammelte Maximilian Post, Consultant bei it-novum, während eines dreimonatigen Zeitraums Tweets von großen börsennotierten Unternehmen. Mit Hilfe verschiedener Algorithmen und Modelle prüfte er, ob es eine Korrelation zwischen der Stimmung auf Twitter und der Entwicklung der Aktienkurse gab. Das Ergebnis: Abhängig vom gewählten Analysemodell zeigten die Auswertungen einen deutlichen Zusammenhang zwischen der Stimmung auf Twitter und dem Verlauf der Aktienkurse der Unternehmen. Für die Aufbereitung, Auswertung und Visualisierung kam Pentaho zum Einsatz. Wie Maximilian Post betont, fällt der Zusammenhang mit den Aktienkursen bei B2C-Unternehmen weniger groß aus als bei B2B-Unternehmen.

Qualitätsmanagement und Controlling: Wiener Wohnen Kundenservice
Wiener Wohnen ist die größte kommunale Hausverwaltung Europas. Rund 220.000 Gemeindewohnungen, 47.000 Abstellplätze und über 5.100 Lokale werden verwaltet. Das Unternehmen verwendet Pentaho, um die Qualitätssicherung über Datenanalysen und Reports abzudecken. Das reicht von der Personalbedarfsplanung, über die Auswertung von Anliegen der Mieter bis hin zum fachlichen Monitoring. Nina Forst, Diplomingenieurin im Bereich Informations- & Kommunikationstechnologie bei Wiener Wohnen, erklärt, dass im System mehr als 1,8 Millionen Kundenanfragen pro Jahr erfasst werden. Neben dem Qualitätsmanagement und den Datenauswertungen werden mit Pentaho auch Berichte erstellt. Pentaho dient bei der Wiener Wohnen Kundenservice GmbH als Data Warehouse für das Callcenter. Das Callcenter bearbeitet alle Anfragen über ein Ticketsystem. In das Data Warehouse laufen die Daten aus der Telefonanlage und dem operativen Quellsystem „pipe“. Eine große Anzahl von Cubes, Kennzahlen, Dimensionen und Reports hilft, die Leistungen des Unternehmens genau zu analysieren und daraus kennzahlenbasierte Verbesserungen abzuleiten. Nina Forst betont, dass Pentaho zwei große Vorteile hat: die Software sei erstens ein verlässliches und ausgereiftes Open Source-Produkt und mache es zweitens möglich, Anwendungen flexibel je nach aktuellem Projektbedarf weiterzuentwickeln.

Auswertung von Ecommerce-Daten: Mercateo
Mercateo ist eine Beschaffungsplattform für Händler, die in elf Ländern rund 18 Mio. Artikel für ca. 1,25 Mio. Geschäftskunden bereitstellt. Das Datenwachstum des Unternehmens ist mit 5 GB täglich (insgesamt 1,5 Terabyte) sehr groß, die Anforderungen an die Analysesysteme daher sehr hoch. Bei Mercateo kommen die Daten aus sechs Quellsystemen, darunter SAP, Oracle, Apache, dem FTP-Server und dem Callcenter-System. Alle Systeme sind an Pentaho angebunden, das dadurch als zentrale Datenbasis des Unternehmens fungiert.

Mercateo setzte für die Datenauswertungen ursprünglich Cognos und eigenentwickelte Analyseanwendungen ein. Das verursachte nicht nur hohe Kosten, sondern auch einen Wildwuchs bei den Auswertungstools: da Schnittstellen zu den Quelldatensystemen fehlten, hatten IT-Mitarbeiter und Fachanwender im Laufe der Zeit verschiedene Adhoc-Auswertungen und Exceltabellen erstellt. Eine gemeinsame Datenbasis fehlte im Unternehmen – ein weit verbreitetes Problem. Laut Torsten Blum, Projektbeauftragter bei Mercateo, sollten die Herausforderungen bei der Einführung einer BI-Plattform nicht unterschätzt werden. Bei Mercateo wurden die Anwender zunächst im Umgang mit den neu zur Verfügung stehenden Daten geschult. Um die Akzeptanz der neuen Lösung zu erhöhen, griff das Unternehmen auch zu drastischeren Maßnahmen: die bis dato bestehenden Auswertungssysteme wurden kurzerhand abgeschaltet. Aufgrund des großen Konfliktpotentials solle man den direkten Kontakt mit den Anwendern suchen und diese aktiv dazu bewegen, sich mit der neuen Anwendung auseinander zu setzen, rät Blum.

Analysen im eGaming-Sektor: Travian Games
Travian Games ist Unternehmen aus München, das Online-Spiele für über 130 Mio. registrierte Nutzer anbietet. Täglich nutzen über 300.000 Spieler die verschiedenen Strategiespiele. Travian Games bereitet die täglich bei den Spielen anfallenden Datenmengen für Analysen in allen Unternehmensbereichen auf. Das Unternehmen verfolgt bei der Entwicklung der Business-Intelligence-Lösung einen geführten Self-Service-Ansatz: die Mitarbeiter in den Fachabteilungen sollen selbst in der Lage sein, die für sie wichtigen Daten zu analysieren. Dazu setzte das Unternehmen ein Data Warehouse auf, das die Daten aus den Online-Spielen sammelt. An das Data Warehouse wurden Systeme aus Marketing, Kundenservice, Zahlungsmanagement und Webtracking angebunden. Die Daten aus dem Data Warehouse fließen in verschiedene Analyseanwendungen. Travian Games setzt als analytische Datenbank Infobright ein. Für die Bewirtschaftung des Data Warehouse und die Analyse-Frontends kommt Pentaho zum Einsatz. Laut Jürgen Meis, Projektmitarbeiter bei Travian Games, war bei der Auswahl der Lösung ausschlaggebend, dass die Technologien flexibel, skalierbar und offen (Schnittstellen) sind und ein benutzerfreundliches Frontend für Endanwender bieten. Jürgen Meis betont, dass die Entwicklung unternehmensweit einheitlicher Kennzahlen als Entscheidungsgrundlage zu den wichtigsten Schritten bei einem Big-Data-Projekt gehört. Dazu zählt, neben Umsatz und Spieler-Anzahl, auch die Abwanderungsquote der Spieler.

Swissport: Auswertung von Flügen, Services und Personal
Swissport ist eine der größten Servicegesellschaften für Fluggesellschaften und Flughäfen weltweit. Swissport setzt Pentaho für die Auswertung von Flügen, Services und Personal ein. Mit weltweit 61.000 Mitarbeitern muss das System die jährlich rund 3,9 Mio. Flüge mit ca. 230 Mio. Passagieren und die damit verbundenen Leistungen zuverlässig auswerten können. Uwe Geercken betreut bei Swissport die Datenverarbeitung und das Reporting. Durch die umfassenden Analyseanwendungen, die das Unternehmen einsetzt, umfasst das auch die Betreuung von Schnittstellen und Projektmanagement (zum Interview): „Die Daten der weltweiten Niederlassungen werden in Pentaho aufbereitet und in SAP verrechnet, um die Ergebnisse in einen Corporate- bzw. weltweiten Zusammenhang zu stellen. Dabei wurde ein spezieller Projektansatz gewählt, der die Business-Logik aus den Datenverarbeitungsjobs ausgliedert, also die IT (Code und Prozesse) von den Business Rules trennt, da letztere extern erstellt und gepflegt werden. Das verbessert die Qualität, ermöglicht agilere IT-Prozesse und macht das Ganze transparenter für die Anwender.“

Auch Uwe Geercken betont die Flexibilität von Pentaho. Aufgrund der vielen Schnittstellen lässt sich das System bei Bedarf anpassen und gut mit anderen Systemen und Technologien kombinieren. Swissport kann dadurch fast alle seine operationellen Systeme auswerten. Die Daten werden dabei nicht nur für das Beladen interner Systeme verwendet, z.B. für die Budgetierung oder die Planung von Flügen und Personal. Auch seine Kunden kann Swissport auf diese Weise mit wichtigen Informationen versorgen.

hgv Analytics: Analyseplattform für das Verlagswesen
Wie Anforderungen an Analysen im Verlagswesen umgesetzt werden können, zeigt sich am Beispiel der Hanseatischen Gesellschaft für Verlagsservice (HGV). Mit der Business Intelligence-Anwendung „HGV Analytics“ stellt HGV ihren Kunden, große deutsche Verlagshäuser, eine Analyseplattform zur Verfügung. Damit können Verlage das Abschneiden eines bestimmten Buchs auf dem Lesermarkt untersuchen und Rückschlüsse auf die Bedingungen für erfolgreiche Bücher ziehen. HGV kombiniert dazu die Daten aus dem Vertriebssystem, der Produktplanung und SAP mit Informationen von Vertriebspartnersystemen in einer Datenbank. Die Auswertungsebene wird mit Pentaho realisiert: Analysecubes, Berichte sowie Dashboards unterstützen Verlage dabei, wichtige Einblicke in ihre Verkaufszahlen und Kundendaten zu gewinnen.


Über den Autor
Stefan Müller leitet den Bereich Business Intelligence und Big Data. Nach mehreren Jahren Tätigkeit im Bereich Governance & Controlling und Sourcing Management beschäftigt er sich bei it-novum mit dem Einsatz von Open Source BI-Lösungen in Fachszenarien. Er hält regelmäßig Vorträge und publiziert in Fachmedien sowie hat er im Dezember 2014 sein erstes Buch zum Thema Pentaho und Jedox veröffentlicht.

Log in or Sign up