- Anzeigen -


Sie sind hier: Home » Markt » Studien

Mangelnde Tests sind Risiko für IT-Infrastrukturen


Profile von Anwendungs-Workloads vor dem Kauf einer Speicherlösung zu verstehen und zu bewerten, liefert wichtige Informationen über die tatsächlichen Anforderungen der Endnutzer
Studie bringt zunehmende Notwendigkeit der Zusammenarbeit von Anwendungs- und Infrastrukturteams ans Licht: Nur 41 Prozent der IT-Experten legen Workload-Profile an und testen Speicher vor dem Kauf

- Anzeigen -





Die Enterprise Strategy Group (ESG) hat mit Virtual Instruments, Anbieterin von anwendungsbasiertem Infrastructure Performance Management, und zahlreichen weiteren Technologieunternehmen eine Studie durchgeführt. Daraus geht hervor, dass IT-Teams in ganz Europa ihre IT-Infrastrukturen – und damit ihre Unternehmen – gefährden, indem sie weder Profile von Anwendungs-Workloads erstellen noch Datenspeichersysteme vor dem Kauf und der Bereitstellung testen.

Die Profile von Anwendungs-Workloads vor dem Kauf einer Speicherlösung zu verstehen und zu bewerten, liefert wichtige Informationen über die tatsächlichen Anforderungen der Endnutzer. Ohne die Profile von Produktionsanwendungen und die Analyse ihres I/O-Verhaltens kann es sehr schwer werden, Speichersysteme richtig zu bewerten und zu skalieren, da genaue Informationen über die Speicherleistung fehlen. Genau diese Informationen sind aber notwendig, um optimale Performance zu gewährleisten und Verlangsamungen und Ausfälle zu verhindern.

Dennoch gaben von den 412 IT-Experten, die an der Befragung teilnahmen, gerade einmal 41 Prozent an, dass sie ein Profil ihrer Workloads erstellen werden, bevor sie ihr nächstes Speichersystem kaufen. 56 Prozent der Befragten verlassen sich darauf, dass entweder ihr Speicheranbieter oder VAR Ihnen eine geeignete Lösung empfehlen wird. Wenn man sich aber ausschließlich auf die Empfehlungen von Verkäufern oder Partnern verlässt, die mit bestimmten Anbietern zusammenarbeiten, übersieht man aber mitunter wichtige Schwachstellen. Im besten Fall kommt es zur Überdimensionierung und Verschwendung von finanziellen Mitteln, im schlechtesten Fall hält eine ungeeignete Speicherlösung nicht mit den Geschäftsanforderungen einer Organisation mit und führt zu Umsatzeinbußen.

Die Folgen von fehlenden Informationen über das Verhalten von Anwendungs-Workloads werden durch das fehlende Verständnis der Leistung einer Speicherlösung vor dem eigentlichen Einsatz noch weiter verschärft. Gerade einmal 29 Prozent der Befragten gaben an, dass sie vor dem Kauf des nächsten Speichersystems selbst einen Lasttest vor Ort ausführen werden, während weitere 11 Prozent angaben, dass sie mit Anbietern oder Partnern gemeinsam Lasttests durchführen werden, um sich gemeinsam für ein neues System zu entscheiden. Ohne das Wissen, wie eine Lösung sich voraussichtlich unter normalen, dynamischen und Höchstbelastungssituationen verhalten wird, ist es viel schwieriger, einzuschätzen, ob eine Lösung korrekt konfiguriert ist, um die einzigartigen Anforderungen eines Unternehmens zu erfüllen. Und das wird sich sehr wahrscheinlich auf die Gesamtleistung eines Systems auswirken.

"Es ist ein Mythos, dass das Upgrade auf einen Flash-Speicher alle datenbasierten Anwendungsleistungsprobleme lösen wird", so Mark Peters, Practice Director & Senior Analyst bei der Enterprise Strategy Group. "Die Anwendungsleistung wird erheblich von den I/O-Eigenschaften und -Mustern der entsprechenden Anwendung sowie der Interaktion mit anderen Anwendungen in derselben – selbstverständlich virtualisierten – Infrastruktur beeinflusst. Jeder Anbieter hat eine andere Lösung gefunden, um mit den zahlreichen unterschiedlichen Workloads in ihren All-Flash-Arrays umzugehen. Es kommt daher nicht selten vor, dass die Leistung für ein und dieselbe Workload um den Faktor fünf schwankt."

Dennoch geht aus der Studie hervor, dass Speicherleistung und -verfügbarkeit die höchste Priorität haben. 70 Prozent der Teilnehmer planen, mit den Anwendungseigentümern Service Level Agreements (SLAs) für die Leistung und/oder Verfügbarkeit abzuschließen. Im Hinblick auf die Leistung werden 43 Prozent der Teilnehmer spezifische SLAs abschließen. Ohne Lasttests und Überwachung ist es aber praktisch unmöglich, die SLAs zu erfüllen.

94 Prozent der Teilnehmer gaben an, dass ihr Unternehmen die Leistung und Verfügbarkeit durch Überwachungs-Tools gewährleistet. Davon ziehen 54 Prozent anbieterunabhängige Überwachungs-Tools vor. Diese Lösungen analysieren die Leistung in der gesamten Infrastruktur, was es erheblich erleichtert, Leistungsprobleme und deren Ursachen zu erkennen. Eine Verlangsamung im Speicher kann beispielsweise durch eine überlastete Anwendung an einer anderen Stelle in der Infrastruktur ausgelöst werden.

Da die Leistungen von Anwendungen und Speichern so eng miteinander verbunden sind, sollte es niemanden überraschen, dass die Mehrzahl (74 Prozent) der Teilnehmer angab, dass den Anwendungseigentümern ihrer Organisation die Wahl des Speichers wichtig ist. Gleichzeitig gaben jedoch gerade einmal 16 Prozent an, dass die Anwendungseigentümer ein Mitspracherecht bei der Entscheidung für eine Speicherlösung haben. Das ist leider eine vergebene Chance: Die Zusammenarbeit zwischen den Speicher- und Anwendungsteams sorgt für ein viel besseres Verständnis der gesamten Infrastruktur und der Auswirkung aller Komponenten auf ihre Leistung.

Chris James, EMEA Marketing Director, Virtual Instruments, erklärt: "Die Ergebnisse dieser Studie sollten sowohl die CIOs von Unternehmen als auch die Anbieter zum Nachdenken anregen. Die CIOs sollten sich über die Wissenslücken Gedanken machen, die ein Risiko für ihr Unternehmen darstellen. Sie sind jedoch auch Gelegenheiten, das Wissen über die Infrastruktur zu vertiefen und herauszufinden, wie sie weniger Finanzmittel verschwenden und eine Überdimensionierung vermeiden können. Solch ein Wissen führt zu mehr und gleichmäßigerer Leistung, was wiederum Vorteile für die gesamte IT-Infrastruktur und das gesamte Unternehmen bietet.

"Für die Anbieter stellen die Ergebnisse einen klaren Hinweis dafür dar, worauf sie sich konzentrieren sollten. Die Verfügbarkeit muss eine Grundvoraussetzung sein – die Leistung ist es, worauf es den Kunden ankommt. Die Anbieter, die ihren Kunden leistungsbasierte SLAs bieten können, die sowohl auf Test- als auch Überwachungs-Tools beruhen, werden die Maßstäbe für den Rest des Marktes setzen."
(Virtual Instruments: ra)

eingetragen: 04.10.17
Home & Newsletterlauf: 26.10.17


Virtual Instruments: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser IT SecCity-Newsletter
Ihr IT SecCity-Newsletter hier >>>>>>

- Anzeigen -


Meldungen: Studien

  • 10 Prozent der Nachfrage im Security Servicesmarkt

    Die weltweiten Ausgaben für Informationssicherheits-Produkte und -Services werden vom Research- und Beratungsunternehmen Gartner für 2018 auf rund 114 Milliarden US-Dollar geschätzt. Dies entspricht einem Anstieg von 12,4 Prozent gegenüber dem Vorjahr. Für 2019 prognostiziert Gartner ein Wachstum von 8,7 Prozent. Dies entspricht Ausgaben von rund 124 Milliarden US-Dollar.

  • Cyberkriminelle setzen auf hochvolumige Angriffe

    Fast 90 Prozent der IT-Dienstleister haben Angst vor Distributed-Denial-of-Service (DDoS-)Attacken und versuchen, ihre Systeme dagegen zu wappnen. Tatsächlich sahen sich im letzten Jahr 87 Prozent aller Service Provider DDoS-Attacken ausgesetzt.Die Sorge vor Angriffen scheint also berechtigt. Dies sind Ergebnisse des 13. weltweiten Sicherheitsbericht WISR (Annual Worldwide Infrastructure Security Report) von Netscout Arbor, Sicherheitsspezialistin für DDoS-Abwehrlösungen.

  • Stiefkind: Security & industrielle Kontrollsysteme

    In Zeiten der Digitalisierung stehen Betreiber industrieller Kontrollsysteme (ICS, Industrial Control System) zunehmend vor der Herausforderung, ihre Systeme und Anlagen vor Cyberangriffen zu schützen. Laut der Kaspersky-Studie "State of Industrial Cybersecurity 2018" sehen die befragten Industrieorganisationen branchenübergreifend Personalmangel, fehlende Investitionen durch das Management sowie der Faktor Mensch als die drei größten Hindernisse für eine ultimative Netzwerksicherheit. Da laut Kaspersky-Daten nahezu 40 Prozent der industriellen Kontrollsysteme im Halbjahresturnus angegriffen werden, können Cybersicherheitslücken in kritischen Infrastruktursystemen die Risiken für Unternehmen erheblich erhöhen.

  • Schwachstellen im Internet der Dinge

    Avast gab die Ergebnisse einer aktuellen Forschungsstudie bekannt. Daraus geht hervor, dass 35,5 Prozent der Smart-Home-Netzwerke weltweit ein oder mehrere Geräte enthalten, die anfällig für Cyberattacken sind und damit das gesamte Heimnetzwerk in Gefahr bringen. Hauptursache dafür sind nicht behobene Schwachstellen in der veralteten Firmware. In Deutschland sind 15,5 Prozent der Smart Homes wegen einem verletzlichen Gerät gefährdet sowie 18,8 Prozent in den USA und 14,9 Prozent in Großbritannien. Für die Studie hat Avast mehr als 147 Millionen Smart-Home-Netzwerk-Scans auf Sicherheitsrisiken überprüft.

  • Cyber-Resilienz-Strategien für E-Mails

    Mimecast, Anbieterin für E-Mail-Sicherheit und Experte für Cyber-Resilience, veröffentlichte ihren aktuellen ESRA-Report (Email Security Risk Assessment). ESRA ist ein vierteljährlich erscheinender Gesamtbericht über Tests, die die Wirksamkeit gängiger E-Mail-Sicherheitssysteme messen. Mithilfe des Mimecast-ESRA-Reports können die teilnehmenden Unternehmen besser beurteilen, wie viele und welche E-Mail-basierten Bedrohungen ihre vorhandenen Abwehrsysteme überwinden. Im Rahmen der kumulativen Bewertungen hat Mimecast mehr als 142 Millionen E-Mails geprüft, die die bestehenden E-Mail-Sicherheitslösungen in Unternehmen durchliefen. Wie die neuesten Ergebnisse zeigen, sind von diesen Sicherheitssystemen 203.000 bösartige Links in 10.072.682 E-Mails als sicher eingestuft. Das heißt: auf 50 geprüfte E-Mails kommt ein bösartiger Link, der nicht gestoppt wird.