Wenn die IT im Rechenzentrum nicht die gewünschte Leistung bringt, gibt es die unterschiedlichsten Optionen, um die Performance zu erhöhen. Die meisten Unternehmen rüsten einfach die Hardware auf. Dabei bietet auch die Software großes Potenzial für eine Effizienzsteigerung. Dell Technologies zeigt, an welchen Stellschrauben Firmen drehen können.
Unternehmen haben hohe Anforderungen an die Performance und Verfügbarkeit ihrer IT-Systeme, denn die IT ist längst der Motor für zahlreiche Geschäftsprozesse. Um die Flut an Daten verarbeiten zu können, investieren die Verantwortlichen deshalb regelmäßig in neue Hardwarekomponenten. Gerne wird dabei großzügig kalkuliert, ohne darauf zu achten, dass der Energiehunger mancher Systeme die Gesamteffizienz der Rechenzentrumsinfrastruktur negativ belastet. Gleichzeitig steigt jedoch auch der Druck, die durch die Digitalisierung stetig wachsenden CO2-Emissionen zu reduzieren und damit dem Klimawandel entgegenzuwirken. Dabei müssen Unternehmen angesichts explodierender Energiepreise allein schon aus wirtschaftlichem Interesse handeln.
„Das olympische Motto ‚schneller, höher, weiter‘ erreichen die meisten Unternehmen in der Regel dadurch, dass sie immer performantere Hardware kaufen. Stellschrauben in anderen Disziplinen, allen voran bei der Software, werden dagegen gerne übersehen – mit negativen Folgen für den Energieverbrauch und damit die CO2-Bilanz“, erklärt Peter Dümig, Senior Produkt Manager Server, Dell Technologies Deutschland (Bild). „Zwar stehen die meisten bei der Modernisierung ihrer IT-Infrastruktur im Gegensatz zu Start-ups nicht auf der ‚grünen Wiese‘. Dennoch haben sie zahlreiche Möglichkeiten, die Leistungsbilanz und Energieeffizienz ihrer Rechenzentrumsinfrastruktur allein mit Bordmitteln oder einfachsten Optimierungen spürbar zu verbessern.“
Software bietet zahlreiche Möglichkeiten, die Leistung der Infrastruktur im Rechenzentrum zu steigern und gleichzeitig den ökologischen Fußabdruck zu verbessern. Aus Sicht von Dell Technologies sollten Unternehmen folgende Punkte im Blick haben:
1. Auf die optimale Verzahnung von Hard- und Software achten. Grundlegend gilt: Neue IT-Ressourcen müssen gepflegt, gewartet und fortlaufend upgedatet werden, was einen erheblichen Folgeaufwand nach sich zieht. Eine zu groß dimensionierte Konfiguration bedeutet aber immer auch nicht ausgelastete Kapazitäten, die die Bilanz verschlechtern. Bevor Unternehmen also in Hardware investieren, sollten sie erst einmal die Leistungsanforderungen ihrer Anwendungen und die Performance der Maschinen aufeinander abstimmen. Eine Kalkulation „Pi mal Daumen“ ist in der Regel wenig zielführend, wichtig ist eine optimale Verzahnung von Hard- und Software.
2. Die Stromsparmechanismen nicht ungenutzt lassen. Moderne Server bieten die unterschiedlichsten Werkzeuge, um Energie zu sparen. Mit dem Ziel, die maximale Performance aus den Rechnern herauszuholen, schalten IT-Teams diese gerne aus. Das heißt, dass Komponenten nicht in einen stromsparenden Modus wechseln können und mehr Energie verbrauchen, als notwendig wäre. Höchste Leistung wird allerdings selten verlangt – und sollte es doch der Fall sein, dauert es nicht lange, bis die Systeme den Sparmodus verlassen haben und volle Performance liefern. Mit den Energiemanagement-Tools der Server-Hersteller können IT-Abteilungen darüber hinaus den Stromverbrauch aller Server und virtuellen Maschinen überwachen und inaktive oder schlecht ausgelastete Systeme aufspüren.
3. Die Modernisierung alter Anwendungen nicht vergessen. Viele Legacy-Systeme sind nicht in der Lage, mit Multithreading umzugehen oder moderne Instruktionen auszuführen. Künstliche Intelligenz beispielsweise setzt Prozessoren mit einer eingebetteten Befehlssatzarchitektur voraus. VNNI (Vector Neural Network Instructions) beschleunigt komplexe Berechnungen, wie sie für Convolutional Neural Networks (CNN) und andere Deep Neural Networks (DNN) typisch sind. Damit lässt sich ein bis zu 30-mal höherer Inferenzdurchsatz erreichen. Gleichzeitig verlangen KI-Workloads nach sogenannten FPGAs (Field Programmable Gate Arrays). Diese vor Ort programmierbaren Hardwarebeschleuniger liefern die erforderliche Anpassungsfähigkeit bei gleichzeitig niedrigeren Kosten und einem geringeren Energieverbrauch. FPGAs werden jedoch von älteren Anwendungen nicht unterstützt.
4. Bereits beim Entwickeln auf die Effizienz achten. Bei proprietärer Software haben Unternehmen keinen Einfluss auf einzelne Funktionen und damit im weiteren Sinne auf den Energiebedarf. Green Coding ist ein nachhaltigerer Ansatz. Legen Anwendungsentwickler beispielsweise beim Rendering ein Augenmerk darauf, wie ihre programmierten Datensätze visualisiert und umgewandelt werden, lässt sich Energie einsparen. Ähnliches gilt für den Programmcode, der so entwickelt ist, dass die CPU-Auslastung auf das erforderliche Minimum reduziert wird. Ein anderes Beispiel ist die Trainingsoptimierung bei KI: Durch den Einsatz von GPT-3, einem autoregressiven Sprachmodell, lässt sich laut ForscherInnen von Google und der Universität Berkeley ein Großteil der CO2-Emissionen in Vergleich zu einem Standardtraining einsparen.
5. Containerisierung ist besser als Virtualisierung. Studien belegen, dass Unternehmen durch die Nutzung Cloud-basierter Lösungen erheblich CO2 einsparen können. Im Rahmen eines reinen „Lift-and-shift“-Ansatzes führt die Verlagerung von IT-Ressourcen in die Cloud aber weder zu den erhofften Effizienzsteigerungen noch zu einer signifikanten Verringerung der Emissionen. Cloud-native Anwendungen erzielen eine größere Wirkung: Statt einer monolithischen Architektur ist jede funktionale Einheit ein eigener unabhängiger Microservice, der in einem Container läuft. Statt der Abstimmung über gemeinsame Bibliotheken kommunizieren die einzelnen Microservices über APIs. Sie bilden damit ein Netzwerk aus Komponenten, in dem jeder Microservice unabhängig von den anderen weiterentwickelt werden kann. Die Applikationen werden zudem nicht mehr nach Spitzenlast ausgelegt – im Falle von Serverless Computing wird die Anwendung sogar erst gestartet, wenn es eine Anfrage gibt.