Künstliche Intelligenz, maschinelles Lernen und menschengetriebene Datenanalyse sind die drei tragenden Säulen der Technologie der Zukunft, meint Tom Becker, General Manager Central & Eastern Europe bei Alteryx, in einem Gastbeitrag.
Unsere Welt besteht aus Daten – Daten, die gesammelt werden und deren Auswertung uns Zusammenhänge greifbar und erklärbar machen. Dabei sind wir einem exponentiell steigenden Datenboom ausgesetzt: IBM schätzte bereits 2013, „dass 2,5 Exabyte an Daten jeden Tag erstellt werden – dies bedeutet, dass 90 Prozent der Daten allein in den letzten zwei Jahren geschaffen worden sind“. Allein in einer einzigen Internetminute werden zum Beispiel 3,8 Millionen Google-Suchanfragen gestellt, 188 Millionen Emails verschickt und 4,5 Millionen Youtube-Videos geschaut. Nach aktuellen Berechnungen würde es dabei 181 Millionen Jahre dauern, die bereits vorhandenen Daten vollständig aus dem Internet herunter zu laden.
Unternehmen und Institutionen können diese exponentiell steigenden Datenmengen nur meistern, wenn sie die drei Säulen künstliche Intelligenz (KI), maschinelles Lernen (ML) und Datenanalyse in Kombination nutzen.
Künstliche Intelligenz bedeutet die Nachahmung menschlicher Entscheidungsstrukturen. Auf der Basis von vorhandenen Daten versucht KI, (eigenständige) Entscheidungen zu treffen. Künstliche Intelligenz ist dabei in zwei Kategorien unterteilt: Bei der angewandten KI liegt der Fokus auf einem einzelnen Aspekt. Demgegenüber erhebt die allgemeine KI den Anspruch, theoretisch unterschiedliche Aufgaben bewältigen zu können. Dies ist der Bereich, aus dem sich das maschinelle Lernen entwickelt hat.
Maschinelles Lernen befasst sich mit der Automatisierung von Prozessen. Es beschreibt ein System, dem beigebracht wird, aus Erfahrungen zu lernen („lernender Algorithmus“), indem diese eine Verallgemeinerung erfahren. Maschinelles Lernen besteht aus den drei Hauptkomponenten Modell, Parameter und Lernsystem. Diese Komponenten bauen aufeinander auf und ermöglichen so die Durchführung von zuverlässigen und konsistenten Analysen:
- Modell: System, welches Vorhersagen oder Identifikationen macht
- Parameter: Signale oder Faktoren, welche das Modell zur Entscheidungsfindung verwendet
- Lernsystem: System, welches die Parameter und damit das Modell anpasst, indem es Unterschiede zwischen den Vorhersagen und dem tatsächlichen Ergebnis betrachtet. Das System lernt aus Beispielen und verallgemeinert diese. Während des Lernprozesses werden Muster, Regelmäßigkeiten und Gesetzmäßigkeiten identifiziert und gespeichert. So können auch Erfahrungen transferiert werden mit dem Ergebnis, dass die Beurteilung zuvor unbekannter Daten möglich wird.
Unterschiede gibt es zwischen Systemen mit symbolischen und Systemen mit nicht-symbolischen Ansätzen. Bei symbolischen Ansätzen wird das Wissen explizit bei nicht-symbolischen Ansätzen hingegen implizit repräsentiert. Als Beispiel können auch die aktuell viel diskutierten neuronalen Netze dienen, die keinen Einblick in die erlernten Lösungswege erlauben.
Menschengetriebene Datenanalyse basiert darauf, anhand von Erfahrungswerten Muster zu erkennen und aus diesen zu abstrahieren. Wir alle verwenden dieses Verfahren jeden Tag. Ratschläge von Eltern an Kinder, von Lehrern an Schüler oder unter Freunden folgen demselben Grundprinzip dieser zutiefst menschlichen Eigenschaft.
Leistungsstarke Rechner und moderne Software erlauben uns mittlerweile den strukturierten Zugang zu einer Unmenge an Daten. Die Analyse dieser Daten erforderte bis vor kurzem noch spezielle Programmierkenntnisse, die nur wenige Fachexperten vorweisen konnten. Dank der Entwicklung spezieller Self-Service-Software sind nun in Unternehmen auch „Programmierlaien“ in die Lage versetzt, Daten eigenständig zu analysieren. Denn durch programmierfreie Plattformen wie zum Beispiel von Alteryx werden Mitarbeiter zu sogenannten Citizen Data Scientists, die eigenständig Daten analysieren und interpretieren können. Datenanalyse ist nunmehr auch außerhalb der IT-Abteilung in allen Bereichen eines Unternehmens möglich.
Daten sind so zum Herzstück der digitalen Transformation geworden. Laut einer aktuellen, von Alteryx in Auftrag gegebenen IDC-Studie verarbeiten mittlerweile 80 Prozent der befragten Unternehmen strukturiert Daten über mehrere Prozessebenen hinweg und verwenden die Ergebnisse in verschiedenen Unternehmensbereichen – Datenanalyse zieht sich also wie ein roter Faden durch die Unternehmen.
Das Zusammenspiel von KI, ML und menschengetriebener Datenanalyse ist dabei für den Erfolg eines Unternehmens entscheidend. Dieses Zusammenspiel erfährt eine zunehmend steigende Bedeutung, wie auch das Fraunhofer-Institut in einer Studie bestätigt. KI und ML sind besonders relevant bei repetitiven und stupiden Aufgaben. Sie allein sind jedoch nicht in der Lage, gewonnene Daten in Kontext zu setzen. Dazu bedarf es der menschlichen Fähigkeit, analytisch und kritisch zu denken, zu abstrahieren und Erkenntnisse angemessen zu interpretieren. Die Datengewinnung durch KI und ML ist zwar effektiv, aber inhaltsleer, solange die gewonnenen Ergebnisse nicht durch menschengetriebene Datenanalyse analysiert und gedeutet werden. Durch den Einsatz spezieller Self-Service-Software werden Unternehmen darüber hinaus in die Lage versetzt, Daten von Citizen Data Scientists in ihren Fachabteilungen auswerten zu lassen. Die Ergebnisse der Datenanalyse liefern so wertvolles Kontextwissen aus den Fachabteilungen.
Die Verbindung von KI, ML und menschengetriebener Datenanalyse sollte also in jedem Unternehmen vollzogen werden, um aus den zur Verfügung stehenden Daten das Optimum für die Unternehmensausrichtung und den Erfolg des Unternehmens heraus zu filtern. So können KI, ML und menschengetriebene Datenanalyse zu den tragenden Säulen von Unternehmen und ihrem Erfolg werden.
Über den Autor
Tom Becker ist General Manager Central & Eastern Europe bei Alteryx, einem der führenden Anbieter von Datenanalysesoftware. Becker ist verantwortlich für die Marktpositionierung des Unternehmens, die Lokalisierung der Produkte sowie den Aufbau der Community im DACH-Raum. Zuvor arbeitete er für QlikTech und die Seeburger AG. Neben seiner beruflichen Tätigkeit beschäftigt sich Tom Becker als Redner und Autor mit den Auswirkungen der Digitalisierung und hält Vorträge und Workshops u.a. an Universitäten in Berlin, Bremen und Nürnberg. Um die Digitalisierung an die Schulen zu bringen, veranstaltete er zuletzt einen Programmier-Workshops für Grundschulkinder.