Big Data ist Realität geworden. Aber es ist nicht dieselbe Realität für jedes Unternehmen und jeden Endanwender. Ein Kommentar von Michiel von der Crone, Field Advisory Services Team Director, EMEA, CommVault.
Die Explosion von Daten schafft unterschiedliche Probleme und Chancen. Beispielsweise stehen medizinische Anbieter, die gescannte Bilder für alle Patienten lebenslang speichern müssen, vor anderen Herausforderungen als Unternehmen der Warenwirtschaft, die sich mit mannigfaltigen Kundenwünschen befassen. Und Endverbraucher, die Fluten an Dateien oder E-Mails bewältigen müssen, stehen vor anderen Herausforderungen als Rechtsabteilungen, die sich mit neuen Compliance-Anforderungen für Big Data auseinandersetzen.
Wir befinden uns also in einer kritischen Phase der Big Data-Evolution. Zwar haben sich die Speicherkosten in letzten Jahren verringert, dennoch können Organisationen für Big Data unmöglich einen „Alles speichern“-Ansatz in der Hoffnung verfolgen, davon langfristig zu profitieren. Das Problem liegt nicht nur darin, welche Daten auf welche Weise aufzubewahren sind. Es stellt sich auch die Frage, wie diese verwertet werden können - nicht nur heute, sondern auch in der Zukunft der Big Data-Technologien mit zunehmend anspruchsvollen Analyseverfahren.
Mit der Zunahme riesiger Datenmengen müssen Organisationen auch neue Inhaltsformate bewältigen. Obwohl diese Datenmengen spannende Möglichkeiten für eine kommerzielle Verwertung schaffen, erwachsen aus ihnen auch massive Verwaltungsanforderungen. Wie sollen Unternehmen die diversen und kritischen Informationen schützen, organisieren und verwerten, die in zunehmendem Maße nicht nur E-Mails und Dokumente, sondern auch umfangreiche Mediendateien und riesige Bestände an Transaktionsdaten umfassen?
Der Kern einer erfolgreichen Big Data-Strategie besteht in der Fähigkeit, die vielfältigen Archivierungs- und Zugriffsanforderungen bewältigen zu können, die sich durch verschiedene Datenquellen und Endbenutzergruppen ergeben. Obwohl Zugriffe auf einen Großteil der üblichen Unternehmensdaten heute über kaum länger als ein Jahr erfolgen, werden mit der Entwicklung von Big Data-Strategien längerfristige Zugriffe definitiv zunehmen. Viele Organisationen verfolgen unbeschwert einer „Alles sammeln“-Richtlinie, weil Speicher billig ist und Daten einen langfristigen Wert bedeuten.
In der Tat erlauben preiswerte, cloudbasierte Speicherlösungen auch Big Data-Strategien. Jedoch sieht die Realität so aus, dass zwar alle Daten in der Cloud gespeichert werden könnten, der Abruf all dieser Daten für Auswertungen jedoch selbst über schnelle Leitungen viel zu lange dauern würde. Zudem steigen die Kosten für den Cloudeinsatz, sobald Unternehmen große Datenmengen einlagern. Selbst ausgelagerte, billige Bandspeicherlösungen sind mit wachsenden Strom- und Verwaltungskosten verbunden.
Auch gehen die Folgen ungenutzter Daten auf Primärspeichern weit über höhere Backupkosten hinaus, und zeitraubende Zugangsprozeduren können zu betrieblichen Ineffizienzen und Risiken für Compliance-Verletzungen führen.
Um langfristige Vorteile zu realisieren, dürfen Organisationen für die Verwaltung von Big Data nicht auf kurzfristige Lösungen setzen. Es gibt klare Anforderungen an deutlich intelligentere Speicherlösungen. Ist es wirklich effizient, Sicherungen ganzer Dateiserver zu archivieren, nur weil einige der auf ihnen gespeicherten Dokumente für Compliance-Anforderungen mehrere Jahre aufbewahrt werden müssen? Ist es nicht effizienter, gezielt die relevanten Informationen zu extrahieren und diese dann an einem preisgünstigeren Ort wie der Cloud zu speichern?
Um Informationen aufzubewahren und gleichzeitig explodierende Datenbestände zu vermeiden, benötigen Organisationen langfristige strategische Lösungen für Datenarchive und Sicherungen. Welche Informationen müssen auf teuren lokalen Datenträgern gespeichert bleiben, und welche Informationen können in die Cloud oder andere Orte ausgelagert werden? Zudem: Welche Richtlinien werden installiert, um Dateneigentumsrechte zu regeln und von den ursprünglichen Endbenutzern zu lösen? Mit einer strategischen Lösung für die Datenarchivierung, die auf den Eigenschaften aller Datenobjekte basiert, vermeiden Organisationen Probleme durch Endbenutzer mit eigenen „Alles aufbewahren“-Grundsätzen.
Mit der Datenauslagerung in ein virtuelles Datenrepository und dem Löschen lokaler Daten vermeiden Organisationen Duplikate und Inkonsistenzen, und sie stellen sicher, dass auf Informationen zeitnah und einfach zugegriffen werden kann. Richtliniengesteuerte Regeln für die Datenarchivierung können auf Kriterien basieren wie z. B. Dateinamen, Benutzergruppen, Stichworten/Schlagworten oder Exchange-Klassifizierungen. Regeln für verteiltes Speichern (Tiered Storage) können auf Inhaltsregeln basieren und allen Zielen zugeordnet werden, z. B. Bandsicherungsgeräten und der Cloud.
Ein intelligentes Datenarchivierungsmodell sollte durch eine effektive Datenwiederherstellung unterstützt werden. Im Zentrum dieses Verfahrens steht eine Kontextindizierung, die es Endbenutzern erlaubt, nach Daten einfach mit Schlüsselwörtern zu suchen. Organisationen können eine Kontextindizierung sowohl für Live-Daten als auch für sekundäre Daten in Sicherungen und Archiven durchführen. In beiden Fällen kann statt einer Kontextindizierung der gesamten Datenressourcen eine Priorisierung der wertvollsten und meistgenutzten Daten über Filter und Richtlinien erfolgen. Eine Kontextindizierung kritischer Unternehmensdaten stellt sicher, das Informationen stets zügig gefunden und abgerufen werden können.
Die Kombination aus intelligenten Speicherrichtlinien und Kontextindizierungen verringert die Datenvolumen, ermöglicht die Verwendung des optimalen Speichermediums für jedes Datenobjekt und erleichtert einen schnellen Zugriff auf geschäftskritische Informationen.
Künftig werden IT-Abteilungen zunehmend durch individuelle Anfragen nach Sichtungen und Verwertungen großer Datenbestände unter Druck geraten. Was geschieht, wenn die Geschäftsführung zu lange braucht, um kritische Dokumente zu finden und abzurufen? Oder wenn die Rechtsabteilung kritische Informationen nicht abrufen kann, um Compliance-Anforderungen zu erfüllen? Oder wenn der Verkaufsleiter wertvolle Einzelhandelsdaten und -Analysen nicht auswerten kann, um das Kundenverhalten zu verstehen?
Um aus Big Data auch Big Intelligence zu machen, müssen Inhalte mit Kontextinformationen verbunden werden. Umfassende Datenarchivierungslösungen basierend auf Inhalten und ihrem Wert für das Unternehmen. Sie versetzen Organisationen in die Lage, ihre Daten nicht nur für kurzfristige Anforderungen zu nutzen, sondern damit auch langfristig bessere strategische Einblicke zu gewinnen. Von der Nachfragevorhersage zu neuen Produkten und Dienstleistungen bis hin zur zügigen Bereitstellung von Betriebsdokumenten für Endanwender: Organisationen, die von Anfang an auf langfristige Archivierungsstrategien setzen, werden die Big Data-Vision am erfolgreichsten realisieren.
Über den Autor
Michiel von der Crone startete seine Berufskarriere 1992 als Systemingenieur für Legato-Speicherlösungen bei einem belgischen Distributor. Danach arbeitete er als Presale-Experte für EMC Software. 2007 kam er zu CommVault und dessen EMEA Nord-Team für die Presale-Unterstützung in Belgien. 2009 wurde er zum EMEA-Produktspezialisten befördert, 2010 erfolgte die Beförderung zum Produktleiter. 2012 erhielt er die Verantwortung für das Field Advisory Services Team („FAST“).