Seit mindestens zwei Jahrzehnten sind Daten weit mehr als nur ein Werkzeug für übergeordnete Prozesse. Spätestens seit dem Web 2.0 wurden sie ein entscheidender Rohstoff und sind häufig die Geschäftsgrundlage ganzer Branchen. Aber ist dadurch die Welt effizienter geworden?
Sicher kennen viele die Geschichte, dass Bill Gates 1981 gesagt haben soll, dass 640 Kilobyte Arbeitsspeicher in einem PC ausreichend seien. Auch wenn dieses Zitat fälschlicherweise Bill Gates zugeordnet wird, zeigt es doch, welche Einschätzung mal plausibel klang und wo wir heute stehen. Verglichen mit den 1980iger Jahren bewegen wir uns beim Arbeitsspeicher heute im Bereich von einer Million mal mehr Speicherkapazität. Und diese ist, verglichen mit damals, extrem günstig zu haben und auch physisch wesentlich kleiner.
Mittlerweile ist die Frage nach der Speicherkapazität für Daten keine relevante Sache mehr. Es geht heute um andere Fragestellungen. Die drehen sich um Verfügbarkeit, Aufbereitung und Anwendung von Daten, sowie um die Frage nach der eigenständigen Weiterentwicklung von Maschinen auf Basis generierter Daten, was gemeinhin als „künstliche Intelligenz" bezeichnet wird.
Die Sache mit der Intelligenz
Es würde den Rahmen sprengen, die Frage nach der tatsächlichen Bedeutung von Intelligenz zu klären. Aber wir wissen alle, dass künstliche Intelligenz (KI) aktuell ein großes Thema ist. Im Wirtschaftsumfeld erhofft man sich damit eine große Effizienzsteigerung, weil viele Abläufe, bei denen der Mensch eigenständig etwas auf Basis einer Sachlage entscheiden muss, von Maschinen übernommen werden können.
In gewissen Teilen passiert das schon seit einigen Jahren. Wenn Sie beim Ausfüllen eines Webformulars die berühmten Kacheln geklickt haben, um dem System zu beweisen, dass Sie kein Roboter sind, trainieren Sie damit die künstliche Intelligenz von Google. Deren ReCaptcha-System soll erkennen, ob die interagierende Instanz ein Mensch oder eine Maschine ist. Und die Wahrscheinlichkeit, dass Sie in sozialen Medien mit einem Bot kommuniziert haben, ist auch sehr hoch. Solche Bots sollen sich wie echte Menschen verhalten und anderen vorgaukeln, sie würden mit einem echten Menschen interagieren. Meist übernehmen sie dubiose Aufgaben, wie das Trollen zur Manipulation der Meinungsbildung in sozialen Medien.
In der Produktion oder auch in anderen Branchen kommen Algorithmen und Routinen zum Einsatz, die durch die Daten, die sie sammeln, kontinuierlich ihre Abläufe verbessern und weiterentwickeln. Der „Autopilot" von Tesla ist ein sehr gelungenes Beispiel für diesen Lernprozess, der obendrein die Schwarmintelligenz nutzt. Lernt es ein Fahrzeug aus der weltweiten Tesla-Flotte, lernen es auch alle anderen. Jedoch hat das noch lange nichts mit einer echten Intelligenz zu tun. Das, was wir heute unter KI kennen, ist eher ein „Machine Learning", also ein System, das auf Basis eines programmierten Musters und einer Datenbasis Entscheidungen trifft, aber nicht darüber hinaus. Weil dem so ist, spricht man auch von schwacher KI.
Andrew Ng, ehemaliger Leiter der Denkfabrik von Google X, hat es mal sehr treffend formuliert: "Betrachten Sie KI heute so, als hätten Sie 10.000 Praktikant:innen zu Ihrer Verfügung"
Daten über Daten
Technische Möglichkeiten verleiten dazu viele Daten zu generieren. Das Problem ist aber auch hier, dass weniger manchmal mehr ist.
In den letzten Jahren haben sich viele neue Berufsbilder entwickelt. Zwei dieser neuen Berufe sind „Data Scientist" oder „Data Analyst". Das sind Leute, die darauf spezialisiert sind, in einem Dschungel von Daten die wichtigen und für eine Problemlösung relevanten Informationen zu extrahieren. Diese Kompetenz ist sehr wichtig und keineswegs trivial. Sie zeigt aber auch ein großes Problem des Datenzeitalters. Die Tatsache, dass man sehr viele Daten generiert, welche häufig nicht notwendig sind, offenbart eine Schwäche, die es auch vor dem Datenzeitalter gab - nur war vorher die Komplexität kleiner. Es ist das Problem des mangelhaften Prozessverständnisses.
Die Kunst besteht darin, eine Daten- und Systemarchitektur in der Art zu entwickeln,
–
die genau die Daten generiert, die tatsächlich benötigt werden,
–
und dass die Optionen für eine Erweiterung und Modifikation der Daten- und Systemarchitektur auch in fernerer Zukunft gegeben sind.
Genau diese Rahmenbedingungen fehlen häufig und führen uns zu einem Problem, das der Effizienz entgegensteht: Ein mieser Prozess, der digitalisiert wird, ist danach ein digitalisierter, mieser Prozess.
Scheineffizienz
Der Glaube, durch möglichst viele Daten effizienter zu werden, ist vergleichbar mit dem Glauben, durch Raserei auf der Autobahn schneller ans Ziel zu kommen. Man hat am Ende nichts gewonnen. Das Gegenteil trifft zu, man hat es sogar schlimmer gemacht.
An Daten mangelt es mitnichten. Häufig ist es allerdings wenig bis gar nicht möglich, die richtigen Antworten zu bekommen, die man dringend benötigt. Und wenn die Antworten möglich sind, ist der Aufwand sie zu generieren sehr hoch. Das ist das Gegenteil von Effizienz.
Ich kenne viele Beispiele, wo meine Fragen nach dem tatsächlichen Kundenbedarf als Stückzahl oder einer echte Liefertreue – gemäß erstversprochenem Termin – nicht beantwortet werden konnten, obwohl es Unmengen an Daten gab. Das zeigt, dass sich im Vorfeld niemand überlegt hat, was die Daten liefern sollen und worum es in einer Prozesslandschaft tatsächlich geht, nämlich um die 100%ige Erfüllung der Kundenbedürfnisse bei maximaler Zufriedenheit der Mitarbeitenden und kleinstmöglichen Kosten.
Zu viel Wissen könnte Sie beunruhigen
Ein weiteres Problem ist die Tatsache, dass man mit einer gewissen Transparenz, die durch Daten hergestellt werden kann, auch umgehen können muss. Durch gewisse Daten erfährt man etwas, das einem Sorge bereiten kann, wenn man die Sachverhalte dahinter nicht kennt bzw. nicht richtig einschätzen kann. Sollten Sie mal gesehen haben, was außerhalb Ihres Routers los ist, könnten Sie Sorge um Ihre Daten haben. Ständig versuchen kleine Programme in Ihr IT-System einzudringen. Das war auch so, bevor Sie dieses Wissen erlangt haben, nur da waren Sie nicht beunruhigt.
Offene Scheunentore
Das genannte Beispiel führt uns zum letzten Problem, nämlich der Cybersicherheit. Je mehr datenbasierte Anwendungen zum Einsatz kommen, desto vulnerabler wird das System bezüglich Cyberkriminalität. Unternehmen, die immer mehr digitalisieren, sollten ihren Aufwand zum Schutz vor Cyberkriminellen entsprechend erhöhen. Das beinhaltet nicht nur Investitionen in Hard- und Software, sondern auch die Qualifikation und Sensibilisierung der Mitarbeitenden. Dieser Aufwand wird oft gescheut, bis es nach einem Cyberangriff zu spät ist und die Folgen noch teurer werden.
Fazit
Daten und digitale Welten beinhalten große Potentiale und Möglichkeiten, mit denen man sich dringend beschäftigen sollte. Aber ist die Welt damit effizienter geworden? In Summe eher nicht. Es fehlt weiterhin an einem übergeordneten Prozessverständnis und der Kompetenz, mit Daten und ihrer daraus möglichen Transparenz richtig umzugehen.
Damit Daten zu mehr Effizienz – aber insbesondere zu mehr Effektivität – führen, braucht es
–
ein klares Verständnis über das, was ein Prozess wirklich benötigt, um die gestellten Erwartungen zu erfüllen.
–
einen stabilen Prozess, der auch unabhängig von der digitalen Welt eindeutig und strukturiert ist. Denn Daten und digitale Technologien lösen kein Problem einer Instabilität, sie machen es eher schlimmer.
–
die Kompetenz, mit dem generierten Wissen und der erweiterten Transparenz richtig umzugehen.
– ein Bewusstsein über wirksame Maßnahmen gegen Cyberangriffe.
Bild: iStock