Cloud-Infrastrukturen für Unternehmensanwendungen nutzen möchten viele Firmen, die heute konventionelle Rechenzentren einsetzen. Voraussetzung dafür ist jedoch eine Neuorientierung der bisherigen Arbeitsteilung zwischen Anwendungen und Infrastrukturen.

Unternehmensrelevante Anwendungen – von der Standardsoftware über maßgeschneiderte Systemlandschaften bis hin zu Altsystemen – werden aus gutem Grund auf klar definierten konventionellen Rechenzentrums-Infrastrukturen betrieben. Diese Infrastrukturen sind darauf ausgelegt, die durch die jeweilige Anwendung gegebene Anforderungen hinsichtlich Verfügbarkeit, Sicherheit, Ausfallsicherheit und Performanz abzudecken. In den meisten Fällen sind diese Anforderungen in festgelegte SLAs (Service Level Agreements) gegossen, die durch den Betreiber der Infrastruktur – unabhängig davon, ob er es sich um eine interne oder eine externe Organisation handelt – garantiert werden müssen. Die Einhaltung dieser vertraglich definierten Anforderungen an die Infrastruktur wird durch Messungen regelmäßig überprüft. Wichtig dabei ist, dass die gemessenen Wert unter den einzuhaltenden Grenzwerten, den sogenannten SLOs (Service Level Objectives), liegen. Nur dann gilt der Vertrag als erfüllt. Und genau da liegt die Schwachstelle vieler Cloud-Infrastrukturen. Während konventionelle Infrastrukturen auf Basis der Anforderungen der Unternehmensanwendungen aufgebaut werden und damit genau darauf zugeschnitten sind, sind es Cloud-Angebote und insbesondere Public-Cloud-Angebote nicht. Die Anbieter haben diese Problematik erkannt und es kommt Bewegung in den Markt. Diese Bewegung hat einen Namen: Software Defined SLA.

Was sind Software Defined SLA?
Damit Cloud-Infrastrukturen für Enterprise Software eingesetzt werden kann, muss das entsprechende Cloud-Angebot fähig sein, die entsprechenden SLAs abzubilden, also bestimmte Grenzwerte für Geschwindigkeit, Sicherheit oder Verfügbarkeit garantiert einzuhalten. Es ist nicht mehr eine gegebene Infrastruktur, die speziell auf die Einhaltung bestimmter Grenzwerte hin konzipiert worden ist und dadurch den möglichen Abdeckungsgrad von Anforderungen vorgibt. Neu müssen diese Anforderungen durch die Software definiert werden, da eine Cloud-Infrastruktur für den Betrieb beliebiger möglicher Anwendungen ausgelegt ist. Die bisherige Arbeitsteilung zwischen Anwendung und Infrastruktur entfällt.

Probleme und Lösungen
Verfügbarkeit, Sicherheit und Performanz sind beispielsweise Systemeigenschaften, die im Enterprise-Computing-Umfeld durch konventionelle Rechenzentren seit Jahr und Tag abgedeckt werden. Dies ist in einer Public Cloud nicht ganz so einfach. So rechnet beispielsweise Amazon mit einer jährlichen Ausfallrate ihrer Speichereinheiten von 0,1 bis 0,5 %. Damit können unternehmenskritische Anwendungen auf gar keinen Fall leben. Sie gehen meist von Verfügbarkeiten im Bereich über 99,9 % aus. Garantierte Antwortzeiten sind für Cloudanbieter auch keine einfach zu gewährleistende Systemeigenschaft, da sich in solchen Infrastrukturen »lärmende Nachbarn« aufhalten können. Damit sind Anwendungen gemeint, deren Performanceprofil stark variiert und die damit andere Anwendungen durch verstärkten Gebrauch der gegebenen Ressourcen verlangsamen. Zu diesen Effekten kommt hinzu, dass für bestimmte Unternehmensanwendungen die in Public Clouds verfügbaren Netzwerkbandbreiten im Ein- bis Zehn-Gigabitbereich keineswegs ausreichen – beispielsweise wenn es um den schnellen Transfer großer Datenmengen für Data Warehousing geht.

Gerade die Flexibilität virtueller Ressourcen und die Elastizität vieler Cloud-Angebote werden zu Stolpersteinen, wenn es um die garantierte Einhaltung vorgegebener SLAs geht. Es sind jedoch neue Lösungen in Sicht: Cloud-Angebote, die Software Defined SLAs abdecken können. Voraussetzung ist allerdings, dass für jede Enterprise-Anwendung die entsprechenden Anforderungen vorliegen.r