Mit der neuen Lösung können Unternehmen die stark wachsende Menge an Daten nicht nur verwalten, Daten jeglicher Art lassen sich effektiver auswerten und nutzen. Hierbei ist es nicht relevant, durch welche Geräte, Sensoren, Geschäftprozesse oder auch sozialen Netzwerke sie erzeugt wurden. Die neue Speichersoftware eignet sich vor allem für datenintensive Anwendungen, die einen Hochgeschwindigkeitszugang zu den enormen Datenvolumina erfordern. Dies ist beispielsweise bei Seismik, Risikomanagement und Finanzanalysen, Wettervorhersagen und der wissenschaftlichen Forschung allgemein notwendig, um den nächsten Schritt in kritischen Situationen bestmöglich zu planen.
"Die digitale Datenmenge wächst schnell und in so dramatischen Maßstäben, dass traditionelle Speichersysteme, die diese bisher aufgenommen und verwaltet haben, nicht mehr ausreichen," sagt Tom Rosamilia, Senior Vice President, IBM Systems and Technology Group. "Unsere Technologie bietet vor allem in den Bereichen Geschwindigkeit, Skalierbarkeit und Kostenreduzierungspotentialen Vorteile. Kunden suchen diese Vorteile, um in einer von Daten geprägten Wettbewerbsumgebung erfolgreich sein zu können."
Software-Defined-Storage bezeichnet eine Reihe von Software-Funktionalitäten, die Daten automatisch lokal und global verarbeiten lassen. In Zeiten steigender Datenvolumina bieten sie einen schnellen Zugang, eine einfachere Verwaltung und die Möglichkeit, technische Infrastrukturen schneller und kosteneffizienter als bisher zu skalieren. Sie können außerdem auf praktisch fast jedem vorhandenen Speichersystem aufsetzen, um eine automatisierte und virtualisierte Speicherung zu ermöglichen.
Eine marktverändernde Technologie
Die Basistechnologie von Elastic Storage wurde für das "Jeopardy!-Quiz-Match" zwischen dem IBM Watson-System und zwei ehemaligen Jeopardy! Champions genutzt. Während der Show hatte Watson Zugriff auf 200 Millionen Seiten strukturierter und polystrukturierter Daten und den Inhalten von Wikipedia. Durch den Einsatz von Elastic Storage konnten die fünf Terabyte von Watson's Wissenbasis (was 200 Millionen Seiten entsprach) in wenigen Minuten in den Speicher des Computers geladen werden.
Für Watson wurde die Software aufgrund ihrer Skalierbarkeit ausgewählt, da die theoretische Architekturbeschränkung auf tausende von Yottabytes ausgeweitet werden konnte und damit auch nach heutigen Maßstäben auf längere Zeit dem praktischen Bedarf genügt. Ein Yottabyte entspricht einer Milliarde Petabyte (10 hoch 24 Byte). Die IBM Forschung hat auch gezeigt, dass Elastic Storage zehn Milliarden Dateien auf einem einzigen Cluster in nur 43 Minuten durchsuchen kann. Diese Leistung ist ein Beispiel dafür, wie Kunden eine riesige Datenmenge vorhalten und auswerten und so bessere Einblicke in ihr Unternehmen erhalten können.
In seinem Kern basiert Elastic Storage auf der IBM Global File System-Software auf und bietet eine Online-Speicherverwaltung, skalierbaren Zugang und integrierte Data-Governance-Werkzeuge, die riesige Mengen an Daten und Dateien managen können. Ein Beispiel: Elastic Storage nutzt einen serverseitigen Flash-Speicher für eine bis zu sechs mal bessere Leistung als die handelsüblichen SAS-Platten. Die Software erkennt, wenn Flash-Speicher benötigt wird, nutzt diesen automatisch und erhöht so die Leistung.
Elastic Storage virtualisiert den Speicher und ermöglicht verschiedenen Systemen und Anwendungen einen Zugang zu gemeinsamen Speicherpools. So kann ein transparenter, globaler Zugang zu Daten geschaffen werden, ohne Anwendungen zu modifizieren und ohne zusätzliche Speichermanagementsoftware. Da Elastic Storage kein zentrales Management für die Bestimmung der Dateiorten benötigt, haben Kunden auch im Falle eines Software- oder Hardwarefehlers einen kontinuierlichen und hochverfügbaren Zugriff auf die Daten.
Für das Computational und Information Services Laboratory (CISL) des US-National Center for Atmospheric Research gehört das Datenwachstum in hohem Maßstab zum Alltag. Die Organisation, die mehr als 50 Petabytes an Informationen an den Standorten Wyoming and Colorado speichert und verwaltet, setzt auf Elastic Storage. So kann die Organisation Forschern jederzeit einen schnellen Zugang zu den riesigen Mengen an unterschiedlichsten Daten ermöglichen.
"Wir bieten Rechen-, Ausbildungs- und Forschungsdatenservices im Bereich Geowissenschaften für mehr als 1000 Nutzer an mehr als 200 verschiedenen Standorten", sagt Pamela Gillman, Manager, Data Analysis Services Group, CISL. "Die globale Filesystem-Software von IBM ermöglicht uns einen skalierbaren, sicheren und schnellen Zugang zu diesen Informationen. Das hat die Leistung der unterschiedlichen Funktionen und der gesamten Organisation entscheidend verbessert."
Eine Kernbestandteil von Elastic Storage ist die Fähigkeit, Daten automatisch und intelligent auf das geeignetste, wirtschaftlichste System zu speichern, das zur Verfügung steht. Durch richtliniengesteuerte Funktionen und Echtzeitanalyse kann Elastic Storage beispielsweise selten verwendete Daten auf ein kostengünstiges Bandlaufwerk übertragen. Häufig genutzte Daten werden auf einem Flash-System gespeichert, um einen schnellen Zugriff darauf zu ermöglichen. Durch diese richtlinienbasierten Besonderheiten können Unternehmen in Spitzenfällen bis zu 90 Prozent speicherbezogener Kosten einsparen.
Zusätzlich bietet die Software eine eigene Verschlüsselung und eine ausgefeilte Löschfunktion. Hierdurch wird ermöglicht, dass Daten nicht missbräuchlich auffindbar sind. Damit werden auch regulatorische Vorgaben wie HIPAA und Sarbanes-Oxley erfüllt.
Durch die Unterstützung der OpenStack Cloud-Management-Software kann Elastic Storage zudem Kunden dabei unterstützen, Daten in Private-, Public- und Hybrid-Clouds für die globale Verarbeitung zu speichern und zu verwalten. Elastic Storage unterstützt nicht nur OpenStack Cinder- und Swift-Zugriff, sondern auch andere offene APIs wie POSIX und Hadoop.
Während traditionelle Speichersysteme die Daten für Transaktionsverarbeitung und für Analytik auf separaten Systemen speichern mussten, können die Resourcen nun mithilfe von Elastic Storage automatisch ausbalanciert werden, um beide Anwendungsworkloads inclusive Hadoop-basierte Analysen zu unterstützen. Dies führt zu einer schnelleren und zeitsparenden Analyse, da keine Daten-Duplikate mehr produziert werden müssen.
Elastic Storage wird voraussichtlich im Verlauf des Jahres auch als IBM SoftLayer Cloud Service verfügbar werden.
Weitere Informationen: www.ibm.com/storage