- Anzeigen -


Sie sind hier: Home » Fachbeiträge » Grundlagen

Virtualisierung benötigt skalierbaren Speicher


Das Bauklötze-Prinzip macht die Skalierung von virtuellen Umgebungen endlich vorhersagbar
Herkömmliche Speicherarchitekturen können durch zusätzliche Datenträgern in der Kapazität oder der Leistung skaliert werden: Gerade das macht sie leider ineffizient

Von Peter Mahlmeister, Tintri

(04.11.14) - Virtualisierung ist in Rechenzentren von Unternehmen heute an der Tagesordnung, die Vorteile unbestreitbar. Um den nachhaltigen Erfolg der Virtualisierung zu garantieren, gilt es jedoch, einige Klippen zu umschiffen. Um rasantem Wachstum und Bedarfsschwankungen gerecht zu werden, muss die Infrastruktur die Skalierung einzelner virtueller Maschinen (VMs) sowie zusätzlich hinzukommende virtualisierte Workloads problemlos unterstützen. Obwohl Software-definierte Architekturen die Netzwerk-Skalierung erst einmal vereinfachen, zählt die Skalierbarkeit der Gesamtinfrastruktur weiterhin zu den größten Herausforderungen, um Virtualisierung im modernen Rechenzentrum noch umfassender einzusetzen.

Virtualisierte Umgebungen sind ihrem Wesen nach komplex. Diese Komplexität können neue, einfach zu skalierende Lösungen jedoch einfach lösen, indem weitere Virtualisierungshosts einfach nach dem Bauklötze-Prinzip hinzugefügt werden. Was nach dem Zusammenstecken von Legosteinen klingt, kann zahlreiche Probleme von Unternehmen lösen, die Mehrzweck-Speicherlösungen im Einsatz haben, also Storage, der nicht speziell für Virtualisierung entwickelt wurde. Wo jedoch liegen genau die Probleme, die zu Engpässen führen? Und wie kann Speicher im Bauklötze-Prinzip diese Probleme lösen?

Skalierung erhöht die Komplexität
Herkömmliche Speicherarchitekturen können durch zusätzliche Datenträgern in der Kapazität oder der Leistung skaliert werden. Gerade das macht sie leider ineffizient. IT-Abteilungen, die mit herkömmlichem Speicher arbeiten, stellen für gewöhnlich mehr als den erforderlichen Speicher bereit. Sie überprovisionieren ihn, um die von ihren virtualisierten Umgebungen benötigte Performance zu erzielen. Dies resultiert in überschüssiger, nicht genutzter Kapazität und unnötiger Komplexität.

Außerdem: Die Anzahl der von herkömmlichen Storage-Controllern unterstützten Datenträger ist begrenzt. Ist die maximale Anzahl von Datenträgern erreicht, müssen Unternehmen entweder einen weiteren Controller hinzufügen und den Storage darunter getrennt verwalten oder gleich das kostspielige "Forklift-Update" wählen - also das bisherige Speichersystem durch ein komplett neues ersetzen. In beiden Szenarien ist die Skalierung ein ständiger Kampf, der zwangsläufig die Komplexität noch vergrößert.

Aufwendige Verwaltung verursacht höhere Gemeinkosten
Obwohl sowohl die Speicherleistung als auch die Skalierungskosten für IT-Administratoren von enormer Bedeutung sind, ist der erhöhte Verwaltungsaufwand für die meisten Abteilungen das wohl größte Problem in diesem Zusammenhang. Von komplexen, für die Bereitstellung erforderlichen Vorgängen bis hin zur Zuordnung von Speicher in virtuellen Umgebungen: Administratoren sind gezwungen, ihre Speicherumgebungen weit im Voraus zu planen, um die verschiedenen Gruppen von VMs zu berücksichtigen. Die Zuordnung virtueller Server und virtueller Desktops kann auch erfahrene IT-Administratoren schnell überfordern. Viele Abteilungen verwenden nach wie vor riesige Tabellen für die Zuordnung von Speicher-LUNs oder Laufwerken zu VMs, was eine unglaublich zeitaufwendige, ineffiziente und fehleranfällige Methode der Speicherverwaltung ist.

Trotz dieses Aufwands lässt sich bei herkömmlichen Speichersystemen zudem nur sehr schwer vorhersagen, wie sich die Skalierung auf bestehende virtualisierte Workloads auswirken wird. Bei den meisten Speicherlösungen werden alle VMs in einen großen gemeinsamen Speichertopf geworfen. In diesem "Eintopf" besteht wenig bis keine Transparenz, was die Performance individueller VMs anbelangt. Auch gibt es keine Möglichkeit, die Servicequalität bestimmter VMs zu messen. Das Problem wird weiter verschärft, wenn Umgebungen mit zugehörigen VMs so groß sind, dass sie sich über verschiedene Speichersysteme erstrecken.

Durch den mangelnden Einblick in einzelne VMs über den gesamten Speicher hinweg ist die Fehlerbehebung für Administratoren mit hohem Zeitaufwand verbunden. Denn sie müssen sämtliche potenziellen Probleme für mehrere Dimensionen und Workloads zu untersuchen. Mit herkömmlichem Speicher erfordert die Ermittlung der Ursache von Performance-Schwierigkeiten, insbesondere in größeren Umgebungen, mehrere Verwaltungs-Tools für ganz unterschiedliche Schichten.

Die fehlende Transparenz und Kontrolle führt dazu, dass niemand vorhersagen kann, wie die Leistung der virtualisierten Umgebung ausfallen wird. Dies kann schwerwiegende Folgen für IT-Abteilungen haben, vor allem, wenn verschiedene Arten kritischer Workloads mit ungleichen Performance-Anforderungen auf dem gleichen Speichersystem kombiniert werden. Vorhersagbare Performance ist für IT-Abteilungen, die herkömmliche Speicherplattformen verwenden, eigentlich unerreichbar. Denn es ist unmöglich, zu wissen, ob neue VMs auf den vorhandenen Speicher passen oder Performance-Probleme mit den Anwendungen oder Diensten verursachen werden können. Es besteht somit eindeutig Bedarf an einer neuen Art von Storage, der die Herausforderungen der Skalierung virtualisierter Umgebungen von vorneherein mit bedenkt.

Bausteine – ein besserer Ansatz für skalierbaren Virtualisierungsspeicher
Ein völlig anderer Ansatz zur Skalierung von Speicher in virtualisierten Umgebungen besteht in der Nutzung von Speicher-Bausteinen. Diese neue Herangehensweise basiert auf der Idee, dass auf die gleiche Art, wie der Baukasten-Ansatz in virtualisierten Umgebungen für die Compute-Ebene verwendet wird, Speicher effizient skaliert werden sollte. Der aus Bausteinen bestehende neue Speicher ist durch die Verständigung und den Betrieb auf der VM-Ebene in der Lage, die Verwaltungsmöglichkeiten der Virtualisierungsebene voll auszuschöpfen, was die Skalierung von Speicher einfach und vorhersagbar macht. Intelligente Funktionen, wie automatische Lastverteilung von VMs über Hosts hinweg, gewährleisten eine einfache und vorhersagbare Skalierung.

Bei diesem simplen Baukasten-Ansatz zur Skalierung von Speicher in virtualisierten Umgebungen erscheint jeder Baustein als einzelner Datenspeicher in der Virtualisierungsschicht. Im Gegensatz dazu müssen Administratoren bei herkömmlichem Speicher Zeit für das Erstellen von separaten LUNs oder Laufwerken für jede neue Gruppe von VMs und danach das Anlegen und das Exportieren der entsprechenden Datenspeicher aufwenden. Der Baustein-Ansatz macht die Schaffung und Verwaltung komplexer Netze von LUNs und Laufwerken überflüssig.

Ein weiterer Vorteil ist, dass Bausteine Administratoren einen klaren und umfassenden Einblick in die Systemleistung und Kapazitätsauslastung bieten. Die IT braucht nicht länger große Mengen vielschichtiger Kapazitäts- und Performance-Daten auszuwerten oder sich Gedanken darüber zu machen, wie viel ungenutzte Leistung zur Verfügung steht.

Ein Baustein kann zudem sicherstellen, dass es keine Beeinflussung durch "laute Nachbarn" auf dem gleichen System gibt. Mit Quality-of-Service-Funktionalität auf VM-Ebene ist die Speicherperformance vorhersagbar. Außerdem ist es möglich, dass sich verschiedene Arten von VMs, wie I/O-intensive Workloads für die Online-Transaktionsverarbeitung (OLTP) und latenzempfindliche Endanwender-Desktops, auf demselben Baustein befinden.

Administratoren können über die Performance und Kapazität eines einzelnen Bausteins hinaus skalieren, indem sie einfach ein zusätzliches System zur Virtualisierungsschicht hinzufügen. Das nimmt weniger als fünf Minuten in Anspruch. Dadurch wird praktisch ein weiterer Datenspeicher hinzugefügt, der durch die Virtualisierungsschicht verwaltet werden kann.

Die IT benötigt speziell auf Virtualisierung ausgelegten Speicher, um den Anforderungen sich dynamisch verändernder virtualisierter Umgebungen gerecht zu werden. Sie braucht zudem einfache, intuitive Tools, die umfassende Transparenz und Kontrolle in der gesamten Speicherumgebung bieten können und sie in die Lage versetzt, Speicher auf der VM-Ebene zu überwachen und zu betreiben. (Tintri: ra)

Tintri: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Grundlagen

  • Zertifikat ist allerdings nicht gleich Zertifikat

    Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

  • Datensicherheit und -kontrolle mit CASBs

    Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

  • KI: Neue Spielregeln für IT-Sicherheit

    Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

  • DDoS-Angriffe nehmen weiter Fahrt auf

    DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

  • Fluch und Segen des Darkwebs

    Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.