Daten und ihre Analyse sind wichtige Wegweiser für wirtschaftliche Entscheidungen. Wie bei der Digitalisierung ist die Akzeptanz und Etablierung datengestützten Handelns sowie der Datenanalyse in vielen Unternehmen enorm vorangeschritten – gleichzeitig steigen aber die Ansprüche.
CDOs und CEOs erwarten schnelle und zielgerichtete Ratschläge aus der Datenanalyse. Damit Daten aber auch nützlich sind - und entscheidungsunterstützend eingesetzt werden können - sollte ihre Analyse bestimmten Qualitätskriterien entsprechen. Business-Software-Experte Sage empfiehlt Unternehmen, die folgenden Bereiche Entwicklungen im datengestützten Handeln zu kennen - und auch zu beachten:
1. Visualisierung
Die beste Datenanalyse bringt wenig, wenn ihre Interpretation scheitert. Daten in konkrete Handlungsempfehlungen zu übersetzen, ist die eine Herausforderung. Diese Informationen aber auch im gesamten Unternehmen zu vermitteln, sie zu „demokratisieren“ und allgemeinverständlich zu veranschaulichen, ist mindestens ebenso wichtig.
Warum ist klar: Datenzentrierung lässt sich nur erreichen, wenn nicht nur die Datenwissenschaftler oder Marketing-Experten im Unternehmen den Wert und die Bedeutung von Datenanalyse verstehen. Das ganze Unternehmen sollte Datenkompetenz besitzen - jede*r sollte datenbezogene Fragen wie „Wo und wie können wir neue Werte für unser Unternehmen schaffen?“ beantworten können. Die richtige Visualisierung kann dabei enorm helfen. Hier geht es oft um Übersetzungsarbeit: Die Welt der Daten und des Marketings sind für andere Abteilungen oft abstrakt. Mit bewährten Tools für Datenvisualisierung werden sie für die Führungsebene und die nachgeordneten Abteilungen leichter begreifbar.
2. On-Demand und Echtzeit-Analysen
Datenanalysen, Empfehlungen und daraus abgeleitete Maßnahmen finden immer stärker in kürzesten Zeitspannen, im Idealfall sogar in Echtzeit statt. Hierbei hilft nicht nur die Visualisierung bei der schnellen Interpretation der Daten. Auch in Dashboards, in denen sämtliche Betriebsdaten konsolidiert werden, bleiben relevante Unternehmensdaten permanent on-demand im Blick und können für sämtliche betrieblichen Abteilungen oder auch externe Stakeholder geteilt oder schnell in Reportings übersetzt werden.
3. Small statt Big Data
Jahrelang ging es in Unternehmen – Stichwort Big Data – um das reine Sammeln von Daten. Im nächsten Schritt ging es vor allem darum, dass die aggregierten Daten im Sinne betriebswirtschaftlicher Erkenntnisse verarbeitet werden. Inzwischen steigt das Bewusstsein, dass Künstliche Intelligenz (KI) und Smart Analytics wenig bringen, wenn die Grundlage der Auswertungsprozesse unsaubere Daten ist. Unternehmen, die den Wert der Datenqualität erkennen, wissen spätestens ab diesem Punkt, dass Datenqualität auch zusätzlichen Aufwand für deren Pflege beinhaltet. Doch der Aufwand und die Verantwortung, die Unternehmen durch den Datenbesitz haben, wird oft noch unterschätzt.
Schlechte Daten – wie veraltete, ungenaue und unvollständige Daten – mindern die Qualität der Erkenntnisse, die aus Datenanalyse gewonnen werden, und verursachen damit Mehrarbeit. Zudem können Daten auch rechtlich aufs Glatteis führen: So schreibt die DSGVO eine Löschpflicht vor. Demnach müssen Unternehmen personenbezogene Daten auf Wunsch der Personen, zum Beispiel bei Widerruf, löschen. Wer die Verordnung ignoriert und nicht umsetzt, riskiert Bußgelder in erheblicher Höhe. Also heißt es im Hinblick auf Daten im Jahr 2022: Small statt Big Data und Qualität statt Quantität.
Oliver Rozic, Vice President Product Engineering bei Sage, kommentiert: „Die Jahre 2020 und 2021 waren für viele Unternehmen bewegt wie nie zuvor. Und auch 2022 ist noch ein Jahr voller Umbrüche. In einer disruptiven Situation wie dieser konnte nicht nur die Digitalisierung ihre Stärken beweisen, indem sie Unternehmen flexibler und agiler arbeiten lässt. Auch die Datenanalyse ist und bleibt ein wichtiger Bestandteil des digitalen Wandels und der betrieblichen Zukunftssicherung.“ (Bild: Sage)
4. KI-getriebenes Data-Storytelling
Daten sind wenig wert, wenn die Erkenntnisse daraus schlecht umgesetzt werden. Hier hilft Data Storytelling: Dieses kommunikative Konzept übersetzt abstrakte Daten in anschauliche Geschichten – und kann Mitarbeiter*innen so, über reine Auswertungen und Visualisierungen hinaus, Trends anschaulich vermitteln. Entscheider und Analysten können Daten-Stories nutzen, um wichtige Trends, Veränderungen, KPIs und Metriken hervorzuheben und datenbasierte Entscheidungsprozesse zu beschleunigen, und um klar zu sehen, welche nächsten Schritte logisch sein könnten.
KI-getriebenes Data-Storytelling kann mit Hilfe holistischer Datenanalysen etwa automatisiert Geschichten aus Daten erstellen. „Augmented Analytics“ ist in diesem Zusammenhang beispielsweise ein Ansatz, bei dem mit KI-Daten zuerst strukturiert und im nächsten Schritt in natürliche Sprache übersetzt werden, um schließlich auf konkrete Anwendungsfälle übertragen zu werden – wie etwa die Sales-bezogene Fragestellung: „Wo kommen unsere Kunden her?“.
5. Datenanalyse wird immer mehr Teamwork und Business-getrieben
Data Analytics wird zunehmend zu einer Disziplin, die weit über die reine Datenwissenschaft, also das reine Sammeln und Aufbereiten von Daten, hinausgeht. Datenanalyseprozesse integrieren vor diesem Hintergrund eine wachsende Anzahl an Rollen und Spezialisten. Datenanalysten haben in diesem Gefüge selbstverständlich weiterhin ihren Platz. Sie arbeiten aber verstärkt mit Business-Stakeholdern zusammen, die definieren, welche Daten überhaupt wichtig sind und verwendet werden sollen.
In diesem Prozess spielen auch Daten-Strategen eine wichtige Rolle, die mit Daten-Architekten entscheiden, welche Anwendungsfälle für die Analyse relevant sind. Data Engineers bringen die dafür notwenigen Daten in das passende Format.
6. Datenanalyse auf dem Prüfstand: Wie gut funktionieren Prognosen?
Wenn Vorhersagen aus Datenanalysen mit der Realität nicht übereinstimmen, steht die Datenanalyse auf dem Prüfstand. Einer der Gründe für entsprechende Abweichungen kann neben der Analyse-Methodik die mangelnde Datenqualität sein, durch unvollständige, redundante oder veraltete Daten. Forecasts aus schlechten Daten können Unternehmensstrategen nicht nur in die falsche Richtung leiten, sondern auch enorme Kosten verursachen. Es gilt also für Unternehmen also nicht nur, sich grundsätzlich für Datenanalyse und Datenzentrierung einzusetzen, sondern bei spürbaren Abweichungen der Vorhersagen auch die Datenqualität kritisch zu hinterfragen.