Mit herkömmlichen Methoden ist der Datenmenge im Energiesektor bei gleichzeitig hohen Anforderungen an die Performance nicht mehr Herr zu werden. Einige Tipps dazu liefert dieser Kommentar von Wolfgang Eichberger, Gründer und Leiter Research & Development bei VisoTech.
Im Jahr 2025 werden weltweit rund 163 Zettabyte an Daten generiert werden – das Zehnfache im Vergleich zum Jahr 2016. Das ergab eine gemeinsame Studie des amerikanischen Festplattenherstellers Seagate und des IT-Marktbeobachtungshauses IDC. Auch die Energiewirtschaft wird von der Datenflut überschwemmt werden; die ersten Wellen haben den Energiesektor bereits erreicht. Ein Beispiel: Allein in den letzten neun Monaten hat sich das Datenvolumen an der europäischen Strombörse EPEX SPOT verdoppelt. Unternehmen, die nicht rechtzeitig reagieren, werden bald nicht nur nasse Füße haben, sondern bis zum Hals im Daten-Wasser stecken. Denn eines ist klar: Wer die exponentiell wachsenden Datenvolumina nicht im Griff hat, wird es schwer haben, im Wettbewerb erfolgreich zu bestehen. Die gezielte Nutzung der Daten wird künftig wesentlich darüber mitbestimmen, ob und wie neue Wertschöpfungsquellen, neue Marktsegmente und Kunden erschlossen werden können.
Derzeit scheinen aber noch viele Unternehmen weit weg von dieser Erkenntnis zu sein. In einer von PWC im Herbst 2016 veröffentlichten Studie gab ein Drittel der befragten Stromlieferanten an, dass die Speicherung von Daten zu Analysezwecken in den nächsten fünf Jahren nicht vorgesehen sei. Dabei ist es mit der Speicherung alleine sowieso nicht getan. Daten generieren erst dann Mehrwert, wenn sie gezielt analysiert und die Ergebnisse dafür herangezogen werden, Prozess- und Kostenoptimierungen durchzuführen und neue Geschäftsmodelle zu erschließen. Dafür müssen die genutzten Daten korrekt und die aus der Analyse abgeleiteten Informationen für das Management verlässlich, genau, aussagekräftig und vor allem auch zeitgerecht verfügbar sein. Keine leichte Aufgabe, aber kein Unternehmen der Energiewirtschaft wird darum herumkommen, sich intensiv mit dieser Thematik zu befassen.
Schritt 1: Big Data
Mit herkömmlichen Methoden ist der Datenmenge im Energiesektor bei gleichzeitig hohen Anforderungen an die Performance nicht mehr Herr zu werden. Rund 600 verschiedene Produkte werden beispielsweise pro Tag an der EPEX SPOT gehandelt, rund um die Uhr. Um die Millionen von Ereignissen pro Tag strukturiert zu sammeln und für Analysen und Backtesting vorzubereiten, sind spezielle Formen der Datenhaltung und Aufbereitung notwendig. Allein die Datenspeicherung stellt ein Problem dar, da die Sicherung solcher Mengen viel Zeit in Anspruch nimmt, der Markt aber 24 Stunden läuft und nicht beeinträchtigt werden darf. Auch der Einsatz konventioneller Datenbanken ist in diesem Bereich zum Scheitern verurteilt. Klassische Datenbanken arbeiten zeilenbasiert und sind damit für die Nutzung im Energiebereich bereits disqualifiziert. SQLite etwa besticht durch die Verarbeitungsgeschwindigkeit, ist aber für große Datenmengen nicht geeignet. Auch herkömmliche Document Stores, wie z. B. Elastic Search, erfüllen die Anforderungen an die Performance in diesem Bereich nicht. Das üblicherweise synchrone Befüllen dieser Stores läuft zu langsam und sie sind der Komplexität der im Energiesektor involvierten Komponenten nicht gewachsen. Benötigt werden Systeme, die:
- asynchron befüllt werden können,
- den zeitgleichen Zugriff von mehreren Stellen ermöglichen,
- möglichst wenige Points of Failure aufweisen,
- Schnittstellen bereitstellen, um Daten aus unterschiedlichen Quellsystemen aufzunehmen,
- die Anforderungen an die enorme Geschwindigkeit erfüllen und
- Möglichkeiten zum Clustern bieten.
Unsere Erfahrung hat gezeigt, dass Mongo DB eine ausgezeichnete Wahl ist, um die täglich rund zwei Millionen Updates der EPEX SPOT sowie die jeweils dazugehörige Historie zu speichern und in Echtzeit zu verarbeiten.
Schritt 2: Neuronale Netze
Derzeit sind Big Data Lösungen, mit dem Ziel, Daten zu sammeln und zu analysieren, das Mittel der Wahl. Mittel- bis langfristig aber werden sie durch tiefe neuronale Netze ersetzt werden. Sie werden wesentlich besser in der Lage sein, die feinkörnigen und unstrukturierten Daten (Transaktionsdaten, Sensordaten, Log-Daten, Geoinformationsdaten, etc.), die in der Energiewirtschaft in Echtzeit anfallen, in Bezug auf direkte Handelsentscheidungen schnell zu verarbeiten. Schon in wenigen Jahren werden in erster Linie neuronale Netze dafür sorgen, dass der Handel funktioniert und die Unternehmen Gewinne erwirtschaften.
Voraussetzung: Strategie
Lösungen für Big Data und neuronale Netze aber sind nur technologische Werkzeuge. Sie bringen nur dann den gewünschten Erfolg, wenn ihrem Einsatz eine klare Strategie zugrunde gelegt wird. Denn aus der Fülle der Daten müssen jene für die Analyse herangezogen werden, die für die Erreichung der jeweiligen Ziele erforderlich sind. Diese Ziele ergeben sich aus der Strategie, die neben den technologischen Aspekten auch organisatorische Anforderungen und rechtliche bzw. regulatorische Restriktionen berücksichtigt. Ausgangspunkt für jegliches Big Data Projekt in Energieversorgungsunternehmen muss also die Strategie sein, erst danach macht die Auseinandersetzung mit der technischen Umsetzung überhaupt Sinn.
Die Weichen müssen jetzt gestellt werden. Denn in nicht allzu ferner Zukunft werden Verbrauch und Produktion von Energie in Echtzeit aufeinander abgestimmt werden. Wer erst dann beginnt, eine Strategie zu entwickeln und sich mit seinen Daten auseinander zu setzen, hat schon verloren.
Über den Autor
Wolfgang Eichberger ist Mitbegründer der VisoTech GmbH und seit 17 Jahren auf innovative Softwarelösungen für die Energiewirtschaft spezialisiert. In seiner Funktion ist er beratend bei führenden europäischen Handelshäusern tätig. Seine Schwerpunkte liegen auf algorithmischem Handel, maschinellem Lernen und künstlicher Intelligenz. Unternehmen, wie STEAG, Iberdrola, VERBUND, Rosneft und OMV zählen zu VisoTechs Kunden.