Der Report zeigt die Haupttreiber für die Implementierung von Software-definierten, hyperkonvergenten sowie öffentlichen oder hybriden Cloud-Umgebungen auf. Für SDS wird beispielsweise die Automation von regelmäßigen oder komplexen Aufgaben des Speichers, vereinfachtes Management heterogener Speicherumgebungen, sowie die Verlängerung der Lebensdauer von Storage-Systemen als wichtig erachtet. Dies ist ein Indiz dafür, dass die Anwender vor allem den wirtschaftlichen Nutzen von SDS anerkennen, um die Leistung, Verfügbarkeit und Auslastung der IT-Infrastruktur zu maximieren.
74% erwarten sich von ihrer Speicherinfrastruktur Geschäftskontinuität bzw. Hochverfügbarkeit (etwa durch Metro-Clustering, synchrone Datenspiegelung oder andere Architekturen), 73% suchen nach Disaster Recovery-Lösungen (von einer Remote-Site oder öffentlichen Cloud) und 72% wünschen sich Kapazitätserweiterungen ohne Unterbrechung.
Geschäftskontinuität bzw. Business Continuity erwies sich als wichtigstes Kriterium zur Speicherauswahl, sowohl in On-Premise-Architekturen als auch in der Cloud. Dies bestätigt die Ergebnisse aus dem Vorjahr. Auch für Betreiber öffentlicher und hybrider Cloud-Speicher ist dies das wichtigste Kriterium (46% und 41%) und liegt in der gesamten Bewertung von SDS- und Hyperkonvergenz-Anwendern mit 45% und 43% ebenso auf hohem Niveau.
Überraschungen, Fehlstarts und technologische Enttäuschungen
Eine der Überraschungen war, dass die Herstellerbindung nach wie vor sehr kritisch gesehen wird und für 42% der Befragten sogar das dringendste Problem darstellt. Software-definierter Speicher soll dieses lösen (etwa durch Management von heterogenen Umgebungen) sowie für Automatisierung (Kostensenkung, einfache Migrationen, weniger Arbeitsaufwand) sorgen. Dementsprechend erwägen oder planen 56% in den nächsten zwölf Monaten Investitionen in Software-Defined Storage. Mit 37% ist dabei der Einsatz von SDS fast doppelt so hoch wie der von Hyperconverged-Lösungen (21%).
Während zwar die Verbreitung von Hyperkonvergenz im Ganzen nach wie vor steigt, schließen andererseits manche Unternehmen diese Architektur aus, da sie sich nicht in bestehende Infrastrukturen einfügt (Silo-Lösung), Rechenleistung und Speicher sich nicht unabhängig voneinander skalieren lassen oder sie zu teuer sind. Für diese Firmen sind Hybrid-Converged-Lösungen eine Alternative.
All-Flash-Arrays werden gemeinhin als einfachste Möglichkeit zur Leistungsverbesserung angesehen, wobei mehr als 17% der Befragten angaben, dass das Hinzufügen von Flash ihre Erwartungen nicht erfüllt habe – höchstwahrscheinlich, da Flash die eigentlichen I/O-Engpässe nicht löst. Hierfür bieten Technologien wie Parallel-I/O eine effektive Lösung.
Mit Blick auf aufkommende Technologien untersuchen viele Unternehmen Container-Lösungen. Jedoch ist die tatsächliche Verbreitung noch gering. Als Gründe werden angegeben der Mangel an Datenmanagement- und Storage-Tools, die Verlangsamung der Performance insbesondere bei Datenbanken und anderen wichtigen Anwendungen sowie eingeschränkte Integrationsoptionen für persistenten Speicher.
NVMe kämpft immer noch darum, Mainstream zu werden. Etwa die Hälfte der Befragten hat die Technologie gar nicht im Einsatz. 30% der Befragten geben an, dass mindestens 10% ihres Speichers über NVMe angebunden ist, bei 7% sind es mehr als die Hälfte ihres Speichers.
Während die Verbreitung also noch relativ gering ist, scheint die Begeisterung für die Technologie groß zu sein. Technologien wie softwaredefinierter Speicher mit Gen6 HBA-Unterstützung und dynamisches Auto-Tiering mit NVMe auf Direct Attached Storage könnten die Einführung weiter vereinfachen und beschleunigen.
"Wir sehen die IT von Unternehmen reif für den Einsatz von softwaredefinierten Technologien als Grundlage für das moderne Rechenzentrum", sagt Gerardo A. Dada, Chief Marketing Officer bei DataCore. "DataCore ist erfreut, ein Katalysator zu sein, mit dem die IT die Geschäftserwartungen hinsichtlich Verfügbarkeit und Leistung bei gleichzeitiger Kostenreduzierung erfüllt und den Anwendern Flexibilität bei der Architektur und die freie Anbieterwahl bietet."
Weitere Erkenntnisse der Marktstudie "State of Software-Defined, Hyperconverged und Cloud Storage":
- In Bezug auf die Akzeptanz und den Reifegrad von Cloud-Speicher berichten viele Unternehmen immer noch über Sicherheits- und Regulierungsprobleme als Hindernisse für den Einsatz. Zudem erwies sich, dass die Nutzung der Cloud die Speicherkosten oftmals nicht senken konnte.
- Insgesamt betrachten die Befragten die Anforderungen, Anwendungsfälle und Entscheidungstreiber sehr unterschiedlich, je nachdem, wo sie stehen und wie viel und wie lange sie derzeit Storage On-Premise oder in der Cloud verwenden.
- Datenbanken, Konsolidierung und VDI sind die drei häufigsten Anwendungsfälle, die für SDS und HCI genannt werden, während Backup, Archivierung und Notfallwiederherstellung wie in früheren Umfragen die drei wichtigsten Anwendungsfälle für die öffentliche und hybride Cloud sind.
- Die Reduzierung von Hardwarekosten bei der Anschaffung und die Steigerung der Leistung waren die Hauptentscheidungstreiber bei früheren Umfragen (vor 2017) für alle Arten von Bereitstellungen. Sowohl in diesem Jahr als auch im letzten Jahr hat sich eine bedeutende Verschiebung vollzogen, die Automatisierung, Vereinfachung und Verlängerung der Lebensdauer bestehender Lösungen zum Ziel hat.
Die Umfrageteilnehmer an der DataCore-Studie “The State of Software-Defined, Hyperconverged and Cloud Storage” stammen aus einer Vielzahl von Organisationen unterschiedlicher Branchen und Größen mit einer breiten Palette von IT- und Anwendungsumgebungen. Die rund 400 Teilnehmer repräsentieren eine Reihe von vertikalen Marktsegmenten, darunter Finanzdienstleistungen, Gesundheitswesen, öffentliche Verwaltung, Fertigung, Bildung, IT-Dienstleistungen und andere Branchen mit einer Mischung aus kleinen Unternehmen unter 500 Mitarbeitern, mittleren Unternehmen mit 500 bis 5000 Mitarbeitern sowie Großunternehmen mit mehr als 5.000 Mitarbeitern.