Daten sind das Gold des 21. Jahrhunderts. Wer über sie verfügt, dominiert in der zunehmend datengetriebenen Welt.
Sie sind überall, und sie wachsen zunehmend in unserer Wirtschaft und Gesellschaft: Daten. Inzwischen sind nahezu alle Branchen, die in größerem Stil agieren, von Datenanalysen abhängig. Doch ist die Datenanalyse an sich für Experten wie Albert Moik, Managing Director Applied Intelligence bei Accenture, nichts Neues. »Daran arbeiten Organisationen und Unternehmer seit Jahrzehnten.« Heute verwendete Algorithmen waren schon in der Datenverarbeitung der zweiten Hälfte des 20. Jahrhunderts bekannt. »Jede betriebliche Entscheidung beruht heute auf einer Datenanalyse«, bestätigt auch Robert Pucher, Studiengangsleiter Softwareentwicklung an der FH Technikum Wien.
Neu sind nun die technologischen Möglichkeiten und die zunehmende Datenmenge, die es zu erfassen gilt. »Vor 20 Jahren gab es auch Daten und Datenbanken, aber heute, mit IoT, ›digital native companies‹, Hyperscalers, dem Smartphone und vielem mehr, gibt es eine Datenexplosion, die ihresgleichen sucht«, stellt Gerald Bader, Head AI, Automation & Analytics CEE bei Atos, fest.
Das Datenwachstum kennt laut IDC keine Grenzen, auch nicht in Europa. Bis 2025 sollen sich Daten weltweit je nach Berechnung auf 160 bis 175 Zettabyte anhäufen, 2018 waren es erst 33 Zettabyte (Anm.: 1 Zettabyte entspricht 1 Milliarde Terabyte).
»So wie sich vor 15 Jahren noch wenige ein Smartphone als unseren täglichen Begleiter vorstellen konnten, werden wir in 15 Jahren ganz selbstverständlich auf KI basierende digitale Assistenten in sehr vielen Lebensbereichen nutzen. KI wird unsere Gesellschaft zu neuem Wohlstand führen«, ist sich Accenture-Experte Albert Moik sicher.
Datenvulkan
Firmen steht heute eine riesige Menge an Daten zur Verfügung. »Es geht immer um die Frage, ob sie damit etwas anfangen können«, stellt FH-Professor Robert Pucher in den Raum. Sie könnten Kundenbeziehungen intensivieren, indem zugeschnittene Profile erstellt werden, Kosten in der eigenen Infrastruktur reduzieren, indem Predictive Analytics Schäden an Maschinen vorhersagt sowie etwa Serviceintervalle angepasst werden. Hat man lange auf klassische Analysen vertraut, haben in den letzten Jahren künstliche Intelligenz und Machine Learning Einzug gehalten. »Unternehmen haben gelernt, dass es neue Mechanismen braucht, denn statistische, historisch bedingt klassische Verfahren reichen oft nicht mehr aus, um die bestehenden Datenmengen zu analysieren«, betont Bader.
Atos stärkt seine Position im Bereich Künstliche Intelligenz mit dem Launch der KI-Plattform Outcome-driven AI Platform. »Mit ODAP können Unternehmen große Mengen komplexer Daten in Echtzeit analysieren sowie Arbeitsabläufe und Prozesse automatisch verwalten und verbessern, was die Gesamtqualität von Produkten und Dienstleistungen optimiert«, betont Gerald Bader.
»Mit Deep Learning Architekturen wie Convolutional Neural Networks in Bild- und Transformer-Netzwerken in der Textverarbeitung sind Durchbrüche im Bereich der Variety gelungen«, informiert Tobias Eljasik-Swoboda, der bei Ontec für künstliche Intelligenz verantwortlich ist. Text- und Bilddaten können mittlerweile sinnvoll verarbeitet werden und reichern die Möglichkeit der klassischen strukturierten Datenanalyse immens an.
Bereits 2017 fand dazu eine »Fake-News Challenge« statt. Bei dem Forschungsprojekt hatten Teams Künstliche-Intelligenz-Tools entwickelt, die bei Artikeln feststellten, ob zumindest die Überschrift zum Text passte. Die beste Gruppe hatte dabei eine Trefferrate von 82 Prozent erreicht. Das Problem, Fake News und schlechte Daten zu erkennen, sei noch deutlich umfangreicher, weshalb das Problemfeld »Veracity« (Anm. »Wahrhaftigkeit«, »Aufrichtigkeit«) nicht final gelöst ist und nach wie vor Forscher*innen beschäftigt, so der Ontec-Fachmann.
Isabel Dregely arbeitet an der FH Technikum Wien in dem Lehr- und Forschungsfeld der Datenanalyse.
Unternehmen und Gesellschaft profitieren
Mit neuen Methoden der Datenanalyse, wie KI und Machine Learning, können Daten, die lange Zeit ignoriert werden mussten, nun ausgewertet werden. »Für Unternehmen bedeutet das potenziell höhere Umsätze, da Aktionen für Kunden realisiert werden können, die vorher nicht möglich waren.« Auch die Kosten können für Unternehmen minimiert werden. Das führt laut Eljasik-Swoboda ebenfalls zu Vorteilen für die Gesellschaft insgesamt. Sowohl die Verwaltung als auch die Privatwirtschaft können bessere Entscheidungen treffen und neue Dienstleistungen ermöglichen, bestehende Lücken im Produkt- und Dienstleistungsbereich lassen sich schließen, zum Beispiel durch Kundensegmentierung.
Datenanalyse verbessert den Arbeitsmarkt, neue Berufsbilder werden geschaffen – wie Analytics Consultant, Data Scientist, Data Engineer, Analytics Architect und Analytics Developer. Durch Datenanalyse ist es möglich, Prozessanalysen zu erstellen, um Prozessverbesserungen vorzunehmen. Im Marketing wird eine deutlich genauere Segmentierung erreicht, um im B2C-Markt zielgerichteter zu werben. Im Customer Support kann die Auswertung von Anfragen auf verdeckte Probleme hinweisen, damit diese grundsätzlich ausgeräumt werden können. »Als Beispiel der Automatisierung durch KI ist auch das automatische Weiterleiten von Anfragen zu den zuständigen Bearbeitern möglich«, berichtet der Experte aus der Praxis in der Arbeit mit Daten.
»2021 haben wir erstmals den Lehrgang Business Analytics angeboten, er war ausgebucht«, erinnert sich Robert Pucher von der FH Technikum Wien. Das große Interesse begründet er damit, dass der Lehrgang wenig auf theoretische Konzepte setzt, sondern sehr stark auf praktisch umsetzbare und zudem toolbasierte Methoden und die Fragestellungen von Personen anspricht, die Entscheidungspositionen im Unternehmen innehaben. Neben »Business Analytics« bietet die FH das Masterstudium »Data Science«.
Und auch das Potenzial in der Auswertung nicht strukturierter Daten wird noch nicht ausreichend genutzt: Die Unternehmen sitzen auf einem Schatz an Textdaten, der de facto nicht automatisiert ausgewertet wird. Hier besteht laut Fachleuten heute noch ein riesiges Potenzial. Um von den Methoden der Datenanalyse profitieren zu können, muss ein Unternehmen nicht zwangsweise über eine professionelle IT-Abteilung verfügen. Es gibt eine Reihe gängiger Werkzeuge, anhand derer Daten analysiert werden können, wie etwa Excel und SQL-Server-Datenbanken. »Klassische statistische Methoden, die vorwiegend bei strukturierten Daten stattfinden, überwiegen noch. Machine Learning & Co sind im Kommen, aber noch selten«, betont Tobias Eljasik-Swoboda abschließend.
Datenschutz
Die Verarbeitung personenbezogener Daten ist in der EU durch die DSGVO streng reglementiert. Außerdem räumt die DSGVO jedem*jeder EU-Bürger*in ein Recht auf Information ein, warum Entscheidungen über sie so getroffen wurden, wie sie es wurden. Momentan wird ein EU AI-Act geschaffen, der laut Tobias Eljasik-Swoboda wahrscheinlich viele Innovationen im Bereich der Bild- und Textverarbeitung umfassen wird. »Aus heutiger Sicht wird diese Verordnung vor 2026 in allen EU-Mitgliedsländern umgesetzt werden müssen.« Mit ihr wird zum Beispiel die biometrische Identifikation oder ein Social-Scoring-System wie in China in der EU illegal, was Persönlichkeitsrechte weiterhin schützen wird.
Erfolg für Ziegel
Sehr wirkungsvoll ist Datenanalyse zum Beispiel in der Ziegelindustrie, wo Trocknungs- und Brennprozesse entscheidende Faktoren bilden. »Mit Datenanalyse steigern wir durch Analyse der Brennkurven die Energieeffizienz, verbessern Produkteigenschaften wie Druck und Festigkeit und erhöhen den Automatisierungsgrad«, berichtet Jörg Reinold, Chief Information and Digital Officer bei Wienerberger.
Als zweiten Prozess, der durch Datenanalyse optimiert wird, nennt er den Bereich Logistik: Leerfahrten können vermieden und Rohstoff energieeffizient eingekauft werden. Großes Potenzial sieht Reinold auch im digitalen Bauen. »Wenn mit Datenmodellen frühzeitig gearbeitet wird, kann auf Anforderungen bestmöglich reagiert werden.« Wo Produktkonstellationen nicht perfekt ineinandergreifen, zeigt die KI Fehler auf. »Je mehr digitale Modelle geplant werden, desto effizienter ist der Weg«, sieht er zunehmendes Potenzial für Datenanalyse.
FH Technikum Wien
An der FH Technikum Wien bildet Datenanalyse ein zentrales Lehr- und Forschungsfeld. »Forschungsprojekte gibt es aktuell im Mobilitäts- und Energiesektor sowie in der Medizin«, berichtet Isabel Dregely, Head of Competence Center Artificial Intelligence & Data Analytics. Drei Projekte im Detail:
- Smart Maintenance: Das F&E-Projekt Smart Maintenance beschäftigt sich mit der prädiktiven Instandhaltung (Predictive Maintenance) im öffentlichen Nahverkehr und wird von der Stadt Wien gefördert. In den speziellen Use-Cases von Smart Maintenance werden Sensoren, AI und historische Daten genutzt, um Prädiktionsmodelle für das Schienennetz zu erstellen.
- Advance Degradation Modelling of Photovoltaic Modules and Materials: Unterschiedlichste Modellierungsansätze (statistisch, chemisch–physikalisch-elektrisch) werden entwickelt und angewandt, um Zusammenhänge zwischen dem Leistungsabfall in Betrieb befindlicher PV-Module, dem spezifischen Degradationsverhalten der eingesetzten Materialien und Materialverbunde sowie den einwirkenden Stressbedingungen zu erkennen und für innovative Materialentwicklungen sowie Predictive-Maintenance-Vorgaben zu nutzen.
- Linked Care (LICA): Für zu Hause gepflegte und begleitete Menschen, ihre Angehörigen und das Pflegepersonal können datenbasierte IKT-Lösungen deutliche Verbesserungen bewirken. In diesem Projekt werden interoperable IT-Artefakte und eine strukturierte Gesundheitsdokumentation entwickelt und nahtlos mit vorhandener Gesundheitsinfrastruktur (z. B. ELGA) verknüpft, um Pfleger*innen, Betroffene, Angehörige und Therapeut*innen zu entlasten und eine durchgehende Informationsversorgung in der mobilen Pflege und Betreuung zu ermöglichen.