Wirtschaft und Industrie haben den Rohstoff Daten für sich entdeckt: Die Datenbanken sind voll, erste und fortgeschrittene Use-Cases mithilfe von KI und Robotik wurden getestet und etabliert. Und doch scheint es zu stocken. Woran liegt das?
In den vergangenen Jahrzehnten hat sich die kluge Nutzung von Daten zum Trendthema schlechthin entwickelt - nicht nur in der IT, sondern in nahezu jeder Branche. Doch der Hype ist offenbar erst einmal vorbei: Trotz der Aufregung um Sprachsysteme wie ChatGPT setzen laut aktueller Capgemini Trend-Studie (www.capgemini.com) seit vergangenem Jahr kaum mehr Unternehmen intelligente Technologien ein. Dabei bremst nicht nur der allgegenwärtige Fachkräftemangel, sondern auch gestiegene Unsicherheit: Laut Geschäftsklimaindex des ifo-Instituts schätzen Unternehmen die aktuelle Lage vorm Hintergrund von Inflation und Krieg deutlich pessimistischer ein.
Liegt es am Geld?
Zwar steigen die Budgets für die IT kontinuierlich weiter an, sie werden aber eher für die Pflege bestehender Systemlandschaften und längerfristige Modernisierungsprojekte eingesetzt als für Innovation aus den Fachabteilungen. Laut den Studienautoren ist das sogar sinnvoll: Um die digitale Transformation voranzutreiben, müssen zentrale System- und Dateninfrastrukturen aufgebaut und einheitliche Standards geschaffen werden – dafür braucht die IT-Abteilung in Sachen Budget aber wieder die Oberhand. Solche Umstrukturierungen sollen nicht nur die Effizienz von Arbeitsabläufen erhöhen, sondern vor dem Hintergrund fehlender Mitarbeiter*innen außerdem den Aufwand senken. Hier macht sich der demografische Wandel bemerkbar: Wo erfahrene Kräfte altersbedingt ausscheiden, kommen nur wenige Data Analysts nach. Laut Einschätzungen der Studienteilnehmer werden in den nächsten 10 Jahren rund 24 Prozent der Fachkräfte in der IT-Branche wegfallen – der Bedarf aber steigt weiter.
Der Know-How-Verlust durch den Abgang erfahrener Fachkräfte wird sich wohl eher auf die Qualität der Arbeit als die Bewältigung der Quantität auswirken. Helfen können neben Automatisierung auch gezielte Tandem-Lehrgänge, in denen Ältere ihre Nachfolger*innen gezielt anlernen, oder Knowledge-Management-Systeme. (Bild: iStock)
Dazu kommt, dass KI-Projekte nur schlecht skalierbar sind - welchen Gewinn sie tatsächlich bringen, lässt sich im Vorhinein nur schwer schätzen. Zudem bedürfen sie auch nach ihrer Implementierung laufend an Nachjustierung, um Mehrwert zu generieren. Und: Viele einfache Use Cases sind bereits umgesetzt – jetzt stehen mit komplexeren Projekten größere Herausforderungen an. Dennoch: KI gehört weiterhin zu den Top-Trends der kommenden Jahre – so wollen die teilnehmenden Unternehmen den Einsatzbereich ihrer KI-Anwendungen deutlich erweitern. Starkes Potenzial erwartet man hier vor allem in den Bereichen Kommunikation, Kundenservice, Produktentwicklung und der Optimierung von Lieferketten.
Trotz aktueller Stagnation bleibt Machine Learning besonders für die Automobilbranche, die produzierende Industrie, Logistik und die Versicherungswirtschaft weiterhin interessant. (Grafik: Capgemini)
Aus den Schatten ins Licht
Eine der größten bevorstehenden Aufgabe ist die Integration der „Schatten-IT“. Dabei handelt es sich um die eigenen – oft ohne das Wissen der IT-Abteilung geschaffene – parallele IT-Systeme der Fachabteilungen wie beispielsweise Software-Applikationen. Das Problem bei solchen Alleingängen kann sein, dass weder Sicherheit noch Effizienz ordnungsgemäß gewährleistet werden – und sich Datensilos aufbauen. Die mangelnde Verfügbarkeit von Daten sei eines der größten Probleme, betont Thomas Heimann, Account Chief Architect bei Capgemini. Das liege aber nicht unbedingt an zu strengen Vorgaben seitens der Unternehmen: „Es herrscht große Unsicherheit darüber, welche Daten anderen zur Verfügung gestellt werden können. Dahinter steht die Angst, möglicherweise etwas zu veröffentlichen, was vielleicht nicht veröffentlicht werden darf. “
Ohne abteilungsübergreifendes Sharing aber kann auch das volle Potenzial der Daten nicht genutzt werden – und so schlummert wertvolles Wissen weiterhin im Dunkeln. Eine Lösung könnte laut den Capgemini-Expert*innen die Schaffung einer zentralen Plattform sein: Dort können Fachabteilungen Wissen und Daten in ein standardisiertes System einpflegen und sich wiederum mit anderen Abteilungen austauschen.
Beim Datensharing hat die Wirtschaft dem öffentlichen Sektor einiges voraus. Laut IT-Trends-Studie habe sich nicht nur die Qualität der Daten verbessert, auch interne Vorgaben wurden dahingegen angepasst – während bei Behörden vor allem interne Vorgaben weiterhin ein Hindernis für mehr Datenverfügbarkeit darstellen. (Grafik: Capgemini)
Vorm Hintergrund der CSRD-Richtlinie der EU werde die Datenverfügbarkeit zwangsläufig steigen müssen, meint Sven Roth, Head of Business & Technology Solutions bei Capgemini in Deutschland. „Allein für die Erfüllung der Berichtspflichten benötigen Unternehmen vielfältige Informationen aus den verschiedenen Unternehmensbereichen und vor allen Dingen auch von ihren Zulieferern“, erklärt er. „Wenn man klimafreundliche Produkte entwickeln oder Kreislaufwirtschaft etablieren will, steigt der Informationsbedarf weiter.“ Künftig soll ein Großteil der Einsparungen durch Informationstechnologie gewährleistet werden – entweder durch kluge Nutzung von Daten, um beispielsweise Energiekosten zu senken, oder durch die Entwicklung umweltfreundlicher Produkte, die weniger Ressourcen verbrauchen.
Unternehmen verlassen sich bei der Reduktion ihrer Emissionen zukünftig größtenteils auf moderne Technologie: Rund 50 Prozent aller Einsparungen sollen durch die IT erreicht werden. (Grafik: Capgemini)
Hin zur nativen Cloud
„Ein Grund dafür, dass KI-Nutzung in den letzten Jahren zugenommen hat, sind mit Sicherheit auch KI-Services von Cloud-Anbietern“, so Thomas Heimann, die deren Nutzung deutlich vereinfachen. Generell sei die Cloud mittlerweile „angekommen“ – so stammen laut der Trend-Studie ganze drei Viertel aller IT-Services entweder aus der eigenen Organisation (Private Cloud) oder einer von einem Anbieter betriebenen Cloud (Public Cloud). Allerdings sind die meisten dieser Anwendungen wiederum nicht Cloud-nativ – noch: Horizontal oder vertikal verteilte Container-Technologien sollen das Cloud-Computing in den nächsten fünf Jahren optimieren.
Ausblick: IT-Trendlandschaft
Wie auch die Cloud gehören Container-Technologien mittlerweile zum etablierten Werkzeugkoffer der IT. Auf dem Trendbarometer werden sie darum vom Zero Trust, Multicloud-Computing und Machine Learning abgelöst. An dieser Entwicklung lassen sich die politischen und geografischen Krisen der letzten 12 Monate besonders gut beobachten: Bedenken angesichts vermehrter Hackerangriffe machen strenge Sicherheitskonzepte wie Zero Trust attraktiver denn je. Rund 11 Prozent haben das Konzept in ihrer Organisation bereits eingeführt, ein Drittel arbeitet daran – 2022 waren es noch 5 Prozent, die mit Zero Trust arbeiteten. Bei Multicloud geht es um Diversifizierung – die Nutzung verschiedener Anbieter, um eine Vendor-Lock-In oder geografische Risiken zu verringern.
Wenig interessant und damit auf den letzten Plätzen stehen überraschend Virtual & Augmented Reality, die Distributed-Ledger-Technologie sowie Graphdatenbanken. Dafür gibt es verschiedene Gründe: Zwar ist die Nutzung von VR-Technologien gestiegen, ihre Einsatzmöglichkeiten allerdings sind begrenzt – momentan lohnt sich die Technologie hauptsächlich für Konstruktion, Entwicklung, Wartung oder Schulungen. Die Idee hinter Distributed-Ledger (DL) ist die dezentralisierte und Bereitstellung authentifizierter Daten – ähnlich dem Blockchain-Prinzip. Interessant ist DL vor allem für Unternehmen, die mit hochaktuellen und sicheren Daten arbeiten müssen. Auch bei Graphdatenbanken geht es um Vernetzung - insbesondere von Metadaten. Sie bleibenaufgrund ihrer Komplexität allerdings noch ein Nischenthema.
Mehr zu den aktuellen Technologietrends und Entwicklungen der Branche finden Sie in der Capgemini IT-Trends-Studie unter www.capgemini.com/insights/research
(Titelbild: iStock)