- Anzeigen -


Sie sind hier: Home » Markt » Studien

Mangelnde Tests sind Risiko für IT-Infrastrukturen


Profile von Anwendungs-Workloads vor dem Kauf einer Speicherlösung zu verstehen und zu bewerten, liefert wichtige Informationen über die tatsächlichen Anforderungen der Endnutzer
Studie bringt zunehmende Notwendigkeit der Zusammenarbeit von Anwendungs- und Infrastrukturteams ans Licht: Nur 41 Prozent der IT-Experten legen Workload-Profile an und testen Speicher vor dem Kauf

- Anzeigen -





Die Enterprise Strategy Group (ESG) hat mit Virtual Instruments, Anbieterin von anwendungsbasiertem Infrastructure Performance Management, und zahlreichen weiteren Technologieunternehmen eine Studie durchgeführt. Daraus geht hervor, dass IT-Teams in ganz Europa ihre IT-Infrastrukturen – und damit ihre Unternehmen – gefährden, indem sie weder Profile von Anwendungs-Workloads erstellen noch Datenspeichersysteme vor dem Kauf und der Bereitstellung testen.

Die Profile von Anwendungs-Workloads vor dem Kauf einer Speicherlösung zu verstehen und zu bewerten, liefert wichtige Informationen über die tatsächlichen Anforderungen der Endnutzer. Ohne die Profile von Produktionsanwendungen und die Analyse ihres I/O-Verhaltens kann es sehr schwer werden, Speichersysteme richtig zu bewerten und zu skalieren, da genaue Informationen über die Speicherleistung fehlen. Genau diese Informationen sind aber notwendig, um optimale Performance zu gewährleisten und Verlangsamungen und Ausfälle zu verhindern.

Dennoch gaben von den 412 IT-Experten, die an der Befragung teilnahmen, gerade einmal 41 Prozent an, dass sie ein Profil ihrer Workloads erstellen werden, bevor sie ihr nächstes Speichersystem kaufen. 56 Prozent der Befragten verlassen sich darauf, dass entweder ihr Speicheranbieter oder VAR Ihnen eine geeignete Lösung empfehlen wird. Wenn man sich aber ausschließlich auf die Empfehlungen von Verkäufern oder Partnern verlässt, die mit bestimmten Anbietern zusammenarbeiten, übersieht man aber mitunter wichtige Schwachstellen. Im besten Fall kommt es zur Überdimensionierung und Verschwendung von finanziellen Mitteln, im schlechtesten Fall hält eine ungeeignete Speicherlösung nicht mit den Geschäftsanforderungen einer Organisation mit und führt zu Umsatzeinbußen.

Die Folgen von fehlenden Informationen über das Verhalten von Anwendungs-Workloads werden durch das fehlende Verständnis der Leistung einer Speicherlösung vor dem eigentlichen Einsatz noch weiter verschärft. Gerade einmal 29 Prozent der Befragten gaben an, dass sie vor dem Kauf des nächsten Speichersystems selbst einen Lasttest vor Ort ausführen werden, während weitere 11 Prozent angaben, dass sie mit Anbietern oder Partnern gemeinsam Lasttests durchführen werden, um sich gemeinsam für ein neues System zu entscheiden. Ohne das Wissen, wie eine Lösung sich voraussichtlich unter normalen, dynamischen und Höchstbelastungssituationen verhalten wird, ist es viel schwieriger, einzuschätzen, ob eine Lösung korrekt konfiguriert ist, um die einzigartigen Anforderungen eines Unternehmens zu erfüllen. Und das wird sich sehr wahrscheinlich auf die Gesamtleistung eines Systems auswirken.

"Es ist ein Mythos, dass das Upgrade auf einen Flash-Speicher alle datenbasierten Anwendungsleistungsprobleme lösen wird", so Mark Peters, Practice Director & Senior Analyst bei der Enterprise Strategy Group. "Die Anwendungsleistung wird erheblich von den I/O-Eigenschaften und -Mustern der entsprechenden Anwendung sowie der Interaktion mit anderen Anwendungen in derselben – selbstverständlich virtualisierten – Infrastruktur beeinflusst. Jeder Anbieter hat eine andere Lösung gefunden, um mit den zahlreichen unterschiedlichen Workloads in ihren All-Flash-Arrays umzugehen. Es kommt daher nicht selten vor, dass die Leistung für ein und dieselbe Workload um den Faktor fünf schwankt."

Dennoch geht aus der Studie hervor, dass Speicherleistung und -verfügbarkeit die höchste Priorität haben. 70 Prozent der Teilnehmer planen, mit den Anwendungseigentümern Service Level Agreements (SLAs) für die Leistung und/oder Verfügbarkeit abzuschließen. Im Hinblick auf die Leistung werden 43 Prozent der Teilnehmer spezifische SLAs abschließen. Ohne Lasttests und Überwachung ist es aber praktisch unmöglich, die SLAs zu erfüllen.

94 Prozent der Teilnehmer gaben an, dass ihr Unternehmen die Leistung und Verfügbarkeit durch Überwachungs-Tools gewährleistet. Davon ziehen 54 Prozent anbieterunabhängige Überwachungs-Tools vor. Diese Lösungen analysieren die Leistung in der gesamten Infrastruktur, was es erheblich erleichtert, Leistungsprobleme und deren Ursachen zu erkennen. Eine Verlangsamung im Speicher kann beispielsweise durch eine überlastete Anwendung an einer anderen Stelle in der Infrastruktur ausgelöst werden.

Da die Leistungen von Anwendungen und Speichern so eng miteinander verbunden sind, sollte es niemanden überraschen, dass die Mehrzahl (74 Prozent) der Teilnehmer angab, dass den Anwendungseigentümern ihrer Organisation die Wahl des Speichers wichtig ist. Gleichzeitig gaben jedoch gerade einmal 16 Prozent an, dass die Anwendungseigentümer ein Mitspracherecht bei der Entscheidung für eine Speicherlösung haben. Das ist leider eine vergebene Chance: Die Zusammenarbeit zwischen den Speicher- und Anwendungsteams sorgt für ein viel besseres Verständnis der gesamten Infrastruktur und der Auswirkung aller Komponenten auf ihre Leistung.

Chris James, EMEA Marketing Director, Virtual Instruments, erklärt: "Die Ergebnisse dieser Studie sollten sowohl die CIOs von Unternehmen als auch die Anbieter zum Nachdenken anregen. Die CIOs sollten sich über die Wissenslücken Gedanken machen, die ein Risiko für ihr Unternehmen darstellen. Sie sind jedoch auch Gelegenheiten, das Wissen über die Infrastruktur zu vertiefen und herauszufinden, wie sie weniger Finanzmittel verschwenden und eine Überdimensionierung vermeiden können. Solch ein Wissen führt zu mehr und gleichmäßigerer Leistung, was wiederum Vorteile für die gesamte IT-Infrastruktur und das gesamte Unternehmen bietet.

"Für die Anbieter stellen die Ergebnisse einen klaren Hinweis dafür dar, worauf sie sich konzentrieren sollten. Die Verfügbarkeit muss eine Grundvoraussetzung sein – die Leistung ist es, worauf es den Kunden ankommt. Die Anbieter, die ihren Kunden leistungsbasierte SLAs bieten können, die sowohl auf Test- als auch Überwachungs-Tools beruhen, werden die Maßstäbe für den Rest des Marktes setzen."
(Virtual Instruments: ra)

eingetragen: 04.10.17
Home & Newsletterlauf: 26.10.17


Virtual Instruments: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser IT SecCity-Newsletter
Ihr IT SecCity-Newsletter hier >>>>>>

- Anzeigen -


Meldungen: Studien

  • Sicherheitstipps für Online-Urlaubsbucher

    70 Prozent der Deutschen haben ihren Urlaub schon einmal im Internet gebucht - das zeigt eine aktuelle und repräsentative Studie von G Data. Für Cyberkriminelle ist es hierdurch leicht, durch gezielte Kampagnen Nutzer anzugreifen, um persönliche Daten zu stehlen. Wer sich noch nicht um die schönste Zeit des Jahres gekümmert hat, wird oft jetzt aktiv und bucht last minute. G Data warnt vor kriminellen Ferien-Kampagnen und gibt Tipps für die sichere Onlinebuchung des Traumreiseziels.

  • Zunehmende Gefahr durch Identitätsmissbrauch

    ThreatMetrix hat neue Daten erhoben und veröffentlicht, die deutliche Veränderungen im Bereich der Cyberkriminalität dokumentieren. Ein Schwerpunkt dieses Wandels liegt in der zunehmend globalen Verbreitung von entwendeten oder betrügerisch eingesetzten Identitäten. Insbesondere in Lateinamerika steigt die Zahl der Versuche mit illegitimen Absichten neue Accounts anzulegen stark an. Laut "ThreatMetrix Q1 2018 Cybercrime Report" wurde in dieser Region ein Viertel aller Kontoanmeldungen als betrügerisch zurückgewiesen. Gestohlene beziehungsweise synthetisierte Identitäten werden dabei nicht nur eingesetzt, um Attacken im wachsenden E-Commerce-Markt Südamerikas durchzuführen, sondern finden auch Verwendung bei Angriffen auf die großen, weltweit aktiven Einzelhandelsunternehmen der USA. Eine weitere Vorgehensweise zur Ausnutzung gestohlener Identitäten in der Region LATAM ist es, diese für Tests auszunutzen, um neue Fake-Accounts zu erstellen, zu verifizieren und zu verkaufen.

  • Ransomware im Jahr 2017

    Die Anzahl der Angriffe mit Ransomware wuchs im Jahr 2017 um 400 Prozent im Vergleich zum Vorjahr. F-Secure macht für dieses Wachstum in einer neuen Studie besonders den Kryptowurm WannaCry verantwortlich, kommt aber weiterhin zu dem Schluss, dass andere Attacken mit Ransomware über das Jahr gesehen immer weiter abnahmen, was darauf schließen lässt, dass es einen Wandel in der Art gibt, wie Cyberkriminelle Ransomware nutzen. Die Studie ‚The Changing State of Ransomware' verdeutlicht, dass das Gefahrenpotenzial von Ransomware im Jahr 2017 immens anstieg. Vorherrschende Gefahren im Laufe des Jahres waren etablierte Ransomware-Familien wie Locky, Cryptolocker und Cerber. Allerdings war es WannaCry als die am häufigsten auftretende Gefahr durch Ransomware 2017: der berüchtigte Kryptowurm war in neun von zehn Fällen Thema aller Ransomware-Reports bis zum Ende des Jahres.

  • Cyber-Erpressung und Phishing

    Privilegierte Nutzerkonten (d.h. Administratoren-, Service-, Maschinen- oder Datenbank-Accounts) sind nach wie vor Haupteinfallstor für Cyberkriminelle, wie der aktuelle 2018 Global Channel Partner Survey Report von Thycotic nun offenbart. Demnach gaben 62 Prozent der befragten Lösungsanbieter an, dass Angreifer vor allem die privilegierten Konten ihrer Kunden im Visier hatten und versucht haben, Schwachstellen bei den Berechtigungsnachweisen auszunutzen. Dennoch investiert nur einer von zehn Kunden in Privileged Account Management (PAM)-Lösungen, um sensible Accounts besser zu schützen. Der Channel-Report basiert auf Antworten von mehr als 250 Value Added Resellern (VARs), Managed Service Providern (MSPs), Value Added Distributoren (VADs), Direct Market Resellern und Systemintegratoren.

  • EDR untersucht und bereinigt Sicherheitsvorfälle

    Bitdefender zeigt die Herausforderung und Belastung von IT-Sicherheitsverantwortlichen beim Umgang mit Sicherheitsvorfällen. Die Zahlen basieren auf einer aktuellen, im Februar und März 2018 durchgeführten Umfrage. Sie geht der Frage nach, wie sich der Einsatz von EDR-Systemen (Endpoint Detection and Response) in der Praxis bewährt. Organisationen setzen EDR ein, weil sie wissen, dass sie nicht jeden Angriff abwehren können, und die Folgen im Falle eines erfolgreichen Hacks eindämmen müssen. 60 Prozent der 154 deutschen Befragten sagen, dass mindestens ein Viertel aller Alerts ihrer EDR-Systemen Fehlalarme seien. Zwei Drittel (65 Prozent) finden die Verwaltung der Systeme hinsichtlich des Personal- und Zeitaufwands schwierig.