Das Unternehmermagazin aus der Handelsblatt Media Group

Creditreform

Obwohl die Speicherpreise sinken, bleibt Storage durch das explodierende Datenaufkommen ein ernstes Kostenthema. Virtualisierung und intelligente Software, die Daten auf unterschiedlich teuren Speichermedien verteilt, wirken dem entgegen.

Mehr als eine halbe Million Menschen lässt sich täglich von der Stuttgarter Straßenbahnen AG (SSB) chauffieren – doch den wenigsten Fahrgästen ist der IT-Aufwand bewusst, der hinter einer solch komplexen Transportdienstleistung steckt. Sei es für Fahrplanauskünfte, Ticketverkäufe, die Steuerung von 450 Bussen und Straßenbahnen oder die Administration der fast 3.000-köpfigen Belegschaft: Das Datenaufkommen bei SSD explodiert förmlich, weswegen das städtische Unternehmen zuletzt immer neue Festplattenlaufwerke nachrüsten musste. Das war nicht nur teuer und verbrauchte viel Strom, sondern war auch unflexibel und barg durch die geringe Skalierbarkeit stets die Gefahr von vorübergehenden Überkapazitäten.

Kein Einzelfall: Zwei von drei Unternehmen sind laut aktueller techconsult-Studie mit ständig steigenden Kosten für Speicherlösungen und Datenmanagement konfrontiert. IT-Entscheider aus allen Branchen müssen demnach jedes Jahr sieben Prozent mehr für Storage ausgeben.

Bei den Stuttgarter Straßenbahnen kam hinzu, dass eine Speicherumgebung mit ausschließlich klassischen Festplatten ohnehin nicht mehr zeitgemäß ist, was Zugriffsgeschwindigkeit und Datenverfügbarkeit betrifft. Ralf Colbus, Storage-Produktmanager bei IBM, sagt solchen 15k-rpm-Disks, also Magnetspeicherplatten, die mit 15.000 Umdrehungen pro Minute rotieren, deshalb sogar „langsames Aussterben“ voraus – und das schon auf Sicht der nächsten zwei Jahre. Sein Kunde SSB brauchte also einen Befreiungsschlag aus seinem Speicherdilemma – zumal das Unternehmen neben seinem Kerngeschäft zugleich als Managed-Service-Provider für regionale Firmenkunden aktiv ist und auch ihnen schnell verfügbaren Speicherplatz zu verlässlich geringen Preisen anbieten möchte.

Abspeichern schichtenweise

Die Wahl fiel schließlich auf eine gemischte Storage- Umgebung von IBM, deren Controller die Daten automatisch auf unterschiedlich schnellen Speichermedien verteilt – je nachdem, wie „hot“ sie sind, also wie schnell sie bereitgestellt werden müssen, wie geschäftskritisch sie sind und wie häufig die Mitarbeiter auf sie zugreifen. Das Trendstichwort hier lautet „Software Defined Storage“: Intelligente Software verwaltet die Daten und legt sie an der optimalen Stelle ab. „Diese Funktion benötigt zwar eine gewisse Lernphase bei der Einführung“, sagt Michael Hohl vom Tübinger IT-Dienstleister Transtec. Nach spätestens 48 Stunden sei jedoch eine deutliche Leistungssteigerung zu erwarten. Klassisch stehen hierfür drei Ebenen (engl. Tiers) zur Verfügung, weswegen das Konzept auch „Automated Storage Tiering“ (AST) heißt (siehe Tabelle). Dieses Modell ist jedoch nach Ansicht einiger Fachleute bereits überholt. Sie empfehlen eine feingliedrigere Struktur, die vier bis fünf Ebenen vorsieht – unter anderem etwa für Cloud-Speicher.

© Yakovliev/iStock/Thinkstock

© Yakovliev/iStock/Thinkstock

Auch bei den Stuttgarter Straßenbahnen sorgt eine Private Cloud inzwischen für besondere Flexibilität bei der längerfristigen Archivierung, kombiniert mit Bandlaufwerken. Für mittelschnelle Datenzugriffe stehen weiterhin Festplatten zur Verfügung – erweitert allerdings um virtuelle Disks, die auf denselben Servern laufen und sich wie real vorhandene Laufwerke adressieren lassen. Diese Virtualisierung des Speichers erhöht nun auch bei Hot Data die Flexibilität der Stuttgarter enorm. Für den eigentlichen Turbo aber sorgen 13 Terabyte an Flashspeicher, die das IBM-System ohne menschliches Zutun mit den heißesten Daten bestückt – darunter 500 Gigabyte für die „SAP ERP Human Capital Management Datenbank“ der Mitarbeiter, auf die besonders häufig zugegriffen wird. Auch das Abrechnungssystem eines Kunden mit seiner knapp zwei Terabyte umfassenden Datenbank wird so beschleunigt.

Andere Anwender aus dem Mittelstand setzen lediglich auf zwei Ebenen – und kombinieren langsame, aber mächtige Festplatten mit flinken Flash-Cache-Modulen für die schnellen Zugriffe. „Oder es laufen alle Applikationen direkt im Flash, und die Sicherung erfolgt danach sofort auf Band“, berichtet IBM-Manager Colbus aus der Praxis. „Diese Möglichkeit des Tierings verbessert die Leistungsaufnahme im Rechenzentrum extrem, da die Bänder, wenn diese nicht im Zugriff sind, keinen Strom benötigen und damit auch keine Abwärme produzieren, die gekühlt werden muss“, bestätigt Transtec-Experte Michael Hohl.

Stimmungswandel im Mittelstand

Dennoch ist vielen Mittelständlern diese Automatisierung nicht ganz geheuer: Entweder trauen sie den Algorithmen der Tiering-Lösungen nicht – oder sie möchten selbst für Ordnung in ihrem Rechenzentrum sorgen und die Kontrolle über ihre Daten nicht abgeben. „Verständlich aber kontraproduktiv“, findet das Transtec- Produktmanager Dieter Bodemer. Denn die manuelle Bewegung von Daten auf unterschiedliche Medien koste angesichts von ausufernden Datenmengen und deren Dynamik nicht nur viel Administrationsaufwand, sondern führe auch – „wie immer bei manuellen Tätigkeiten“ – zu Fehlern.

Beflügelt von „steigender Ratio und sinkenden Preisen“ dürfte Automated Storage Tiering seinen Siegeszug daher auch im Mittelstand fortsetzen, heißt es bei Transtec. Bodemer: „Wir befinden uns gerade an einem Scheitelpunkt.“